|
Методы прогнозирования основанные на нейронных сетях
1. ПРОГНОЗИРУЮЩИЕ СИСТЕМЫ. СОСТОЯНИЕ
ПРОБЛЕМЫ
В данной главе мы обсуждаем некоторые
общие аспекты разра-
ботки
прогнозирующих систем: понятие
прогноза и цели
его ис-
пользования,
основные понятия и определения в области прогнозиро-
вания,
методы прогнозирования, модели временных последовательнос-
тей,
критерии производительности прогнозирующих систем и другие
общие
вопросы касающиеся разработки прогнозирующих систем.
1.1. Прогноз и цели его использования
Прогнозирование - это ключевой момент при принятии решений
в
управлении. Конечная эффективность любого
решения зависит от
последовательности
событий, возникающих уже после принятия
реше-
ния.
Возможность предсказать неуправляемые аспекты
этих событий
перед
принятием решения позволяет сделать наилучший выбор, кото-
рый, в
противном случае, мог-бы быть не таким
удачным. По-этому
системы
планирования и управления,
обычно, реализуют функцию
прогноза.
Далее перечислены примеры ситуаций [44], в которых по-
лезно
прогнозирование.
Управление материально-производственными
запасами. В управ-
лении
запасами запасных частей на предприятии по ремонту самоле-
тов
совершенно необходимо оценить степень
используемости каждой
детали.
На основе этой информации определяется необходимое коли-
чество
запасных частей. Кроме того, необходимо
оценить ошибку
прогнозирования.
Эта ошибка может быть оценена, например, на
ос-
нове
данных о времени, которое понадобилось для доставки деталей,
которых
не было на складе.
Планирование производства. Для того,
чтобы планировать
производство
семейства продуктов, возможно, необходимо спрогнози-
ровать
продажу для каждого наименования продукта, с учетом време-
ни
доставки, на несколько месяцев вперед. Эти прогнозы для конеч-
ных
продуктов могут быть потом преобразованы в требования к полу-
фабрикатам,
компонентам, материалам, рабочим и т.д.
Таким обра-
зом на
основании прогноза может быть построен график
работы це-
лой
группы предприятий.
Финансовое планирование. Финансового
менеджера интересует
как
будет изменяться денежный оборот компании с течением времени.
Менеджер,
может пожелать узнать, в какой период времени
в буду-
щем
оборот компании начнет падать, с тем, чтобы принять соответ-
ствующее
решение уже сейчас.
Разработка расписания персонала. Менеджер
почтовой компании
должен
знать прогноз количества обрабатываемых писем, с тем что-
бы
обработка производилась в соответствии с расписанием персона-
ла и
производительностью оборудования.
Планирование нового продукта.
Решение о разработке нового
продукта
обычно требует долговременного прогноза того, каким
спросом
он будет пользоваться. Этот прогноз не менее
важен, чем
определение
инвестиций необходимых для его производства.
Управление технологическим процессом.
Прогнозирование также
может
быть важной частью систем управления технологическими про-
цессами.
Наблюдая ключевые переменные процесса и используя их для
предсказания
будущего поведения процесса, можно определить
опти-
мальное
время и длительность управляющего воздействия.
Например,
некоторое
воздействие в течение часа может
повышать эффектив-
ность
химического процесса, а потом оно может
снижать эффектив-
ность
процесса. Прогнозирование производительности
процесса мо-
жет
быть полезно при планировании времени
окончания процесса и
общего
рассписания производства.
На основании вышеизложенного можно
сказать, что прогнозиро-
вание -
это предсказание будущих событий.
Целью прогнозирования
является
уменьшение риска при принятии
решений. Прогноз обычно
получается
ошибочным, но ошибка зависит от используемой прогнози-
рующей
системы. Предоставляя прогнозу больше ресурсов, мы можем
увеличить
точность прогноза и уменьшить убытки, связанные с неоп-
ределенностью
при принятии решений. Эти соображения отображены на
рис.1.1.
На рисунке показано что стоимость прогноза
увеличивает-
ся по
мере того, как уменьшаются убытки от неопределенности. При
некотором
уровне ошибки прогнозирования затраты на
прогнозирова-
ние
минимальны.
Затраты і Общая
і стоимость
і
і
і
і
і Потери |
і из-за |
і неопре- |
і деленности |
і | Стоимость
і |
прогнозирования
АДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДД
Оптимум
Уровень
ошибки
Рис. 1.3. График иллюстрирующий
соотношение и эффективность
затрат
на прогнозирование.
Заметим, что концептуальная модель,
изображенная на рис.1.1
основана
на асимптотическом снижении
убытков при использовании
результатов прогнозирования. Таким образом, каждый
дополни-
тельный
доллар, потраченный на прогнозирование дает меньшее сни-
жение
риска убытков, чем предыдущий. За некоторой точкой, допол-
нительные
затраты на прогнозирование могут вовсе не
приводить к
снижению
потерь. Это связано с тем, что невозможно снизить сред-
нюю
ошибку прогнозирования ниже определенного уровня, вне зависи-
мости
от того насколько сложен примененный метод прогнозирования.
Поскольку прогнозирование никогда не
сможет полностью унич-
тожить
риск при принятии решений, необходимо явно определять не-
точность
прогноза. Обычно, принимаемое решение
определяется ре-
зультатами
прогноза (при этом предполагается,
что прогноз пра-
вильный)
с учетом возможной ошибки прогнозирования.
Сказанное выше предполагает, что
прогнозирующая система дол-
жна
обеспечивать определение ошибки прогнозирования, также как и
само прогнозирование. Такой подход значительно
снижает риск
объективно
связанный с процессом принятия решений.
Необходимо отметить, что прогнозирование это не конечная
цель.
Прогнозирующая система это часть большой системы менеджмен-
та и
как подсистема, она взаимодействует с
другими компонентами
системы,
играя немалую роль в получаемом результате.
1.2. Основные понятия и определения проблемы
прогнозирования
Необходимо отметить, что мы рассматриваем
прогнозирование в
целях
планирования производства или
управления запасами. Таким
образом,
наш интерес лежит в определении будущих продаж продукта,
или
использовании материалов. Обычно мы будем ссылаться на инте-
ресующую
нас переменную, как на "требование". Конечно, только та-
кое
применение предложенных методов не обязательно и прогнозиро-
вание
быть проведено для каких-либо других целей и включать дру-
гие
типы переменных. Однако, предполагая именно такую направлен-
ность,
мы сформулируем специальные комментарии описывающие общие
принципы
решения проблемы прогнозирования. Сформулированные прин-
ципы
могут быть применены при прогнозировании в других целях.
Для того, чтобы определить проблему
прогнозирования, рас-
смотрим
ее подробнее. Результаты прогнозирования используются для
поддержки
принятия решений. Следовательно, природа
принимаемых
решений
определяет большинство желаемых
характеристик прогнози-
рующей
системы. Изучение решаемой проблемы
должно помочь отве-
тить на
вопросы о том, что нужно прогнозировать, какую форму дол-
жен
принять прогноз, какие временные элементы включаются и како-
ва
желательная точность прогноза.
При определении того, что нужно прогнозировать, мы указы-
ваем
переменные, которые анализируются и
предсказываются. Здесь
очень
важен требуемый уровень детализации.
Система проектирова-
ния
производства может требовать
прогноз требуемого количества
продукции
в единицах по каждому виду конечного продукта
произво-
димого
предприятием и прогноз по запасным частям
для оборудова-
ния
предприятия. С другой стороны, менеджер по продаже может пот-
ребовать
только прогноз общей суммы продажи продукта в
долларах,
для
определения вклада в бюджет. В первом случае
прогнозирование
построено
на единичном базисе, во втором
случае прогнозирование
построено
на обобщенном базисе. Пока от нас
требуется результи-
рующая
информация первого или второго типа нельзя однозначно выб-
рать
анализируемые переменные. При планировании
производства мы
можем
прогнозировать на некотором обобщенном уровне, например, на
уровне
семейства продуктов и потом разбить обобщенный прогноз до
единичного
уровня, используя дополнительные расчеты. При
прогно-
зировании
общей суммы продаж в долларах, мы можем
прогнозировать
продажу
по каждому из продуктов, скажем того же семейства продук-
тов,
результат преобразовать в доллары,
используя предсказанные
цены и
потом оценить общий уровень продаж в долларах.
На используемый уровень детализации
влияет множество факто-
ров:
доступность и точность данных, стоимость анализа и предпоч-
тения
менеджера. В ситуациях, когда
наилучший набор переменных
неясен,
можно попробовать разные альтернативы и выбрать один из
вариантов,
дающий наилучшие результаты. Обычно так
осуществляет-
ся
выбор при разработке прогнозирующих систем, основанных на ана-
лизе
исторических данных.
Второй важный этап при построении
прогнозирующей системы -
это
определение следующих трех параметров: периода
прогнозирова-
ния,
горизонта прогнозирования и интервала
прогнозирования. Пе-
риод
прогнозирования - это основная единица времени, на которую
делается
прогноз. Мы можем пожелать знать требование
на продукт
через
неделю. В этом случае период - неделя. Горизонт прогнозиро-
вания -
это число периодов в будущем, которые покрывает прогноз.
То
есть, нам может понадобиться прогноз на 10
недель вперед, с
данными
по каждой неделе. В этом случае период - неделя, а гори-
зонт -
10 недель. Наконец, интервал прогнозирования - частота, с
которой
делается новый прогноз. Часто интервал
прогнозирования
совпадает
с периодом прогнозирования. В этом случае
прогноз пе-
ресматривается
каждый период, используя требование
за последний
период
и другую текущую информацию в качестве базиса
для перес-
матриваемого
прогноза. Если горизонт всегда имеет одну
и ту же
длину
(Т-периодов) и прогноз пересматривается каждый период, го-
ворят
что мы работаем на основе движущего горизонта. В этом слу-
чае, мы
репрогнозируем требование для Т-1 периода и делаем ориги-
нальный
прогноз для периода Т.
Выбор периода и горизонта
прогнозирования обычно диктуется
условиями
принятия решений в области для
которой производится
прогноз.
Для того, чтобы прогнозирование имело смысл, горизонт
прогнозирования
должен быть не меньше, чем время, необходимое для
реализации
решения принятого на основе прогноза.Таким образом,
прогнозирование
очень сильно зависит от природы принимаемого
ре-
шения.
В некоторых случаях, время, требуемое на реализацию реше-
ния не
определено, например, как в случае поставки запасных час-
тей для
пополнения запасов ремонтных предприятий. Существует ме-
тоды
работы в условиях подобной неопределенности,
но они повы-
шают
вариацию ошибки прогнозирования. Поскольку с увеличением го-
ризонта
прогнозирования точность прогноза,
обычно, снижается,
часто
мы можем улучшить процесс принятия решения, уменьшив время,
необходимое
на реализацию решения и, следовательно, уменьшив го-
ризонт
и ошибку прогнозирования.
Интервал прогнозирования часто
определяется операционным ре-
жимом
системы обработки данных, которая обеспечивает информацию о
прогнозируемой
переменной. В том случае,
если уровень продаж
сообщается
ежемесячно, возможно для еженедельного
прогноза про-
даж
этих данных недостаточно и интервал прогнозирования месяц -
является
более обоснованным.
Хотя различие не велико, мы хотели бы
обратить внимание на
различие
между данными за период и точечными данными.
Данные за
период
характеризуют некоторый период
времени. Например, общий
уровень
продаж за месяц, и средняя температура за день, характе-
ризуют
период времени. Точечные данные представляют значение пе-
ременной
в конкретный момент времени, например, количество запас-
ных
частей на конец месяца и температура в полдень. Различие меж-
ду
этими двумя типами данных важно в основном
для выбора ис-
пользуемой
системы сбора данных, процесса измерений
и определе-
ния
ошибки прогнозирования.
Третьим аспектом прогнозирования является
требуемая форма
прогноза.
Обычно при прогнозировании проводится оценка
ожидаемо-
го
значения переменной, плюс оценка вариации ошибки прогнозирова-
ния или
промежутка, на котором сохраняется
вероятность содержа-
ния
реальных будущих значений переменной. Этот
промежуток назы-
вается
предсказуемым интервалом.
В некоторых случаях нам не так важно предсказание конкрет-
ных
значений прогнозируемой переменной, как
предсказание значи-
тельных
изменений в ее поведении. Такая задача возникает, напри-
мер,
при управлении технологическими процессами, когда нам необ-
ходимо
предсказывать момент, когда процесс перейдет в неуправляе-
мое
состояние.
Точность прогноза, требуемая для конкретной
проблемы оказы-
вает
огромное влияние на прогнозирующую систему. Мы уже показали
это на
рис. 1.1. Важнейшей характеристикой системы управления яв-
ляется
ее способность добиваться оптимальности при работе с неоп-
ределенностью.
До сих пор, мы обсуждали набор проблем
связанных с процес-
сом
принятия решения. Существует ряд других
факторов, которые
также
необходимо принимать во внимание при рассмотрении проблемы
прогнозирования.
Один из них связан с процессом генерирующим
пе-
ременную.
Если известно, что процесс стабилен,
или существуют
постоянные
условия, или изменения во времени происходит
медленно
-
прогнозирующая система для такого процесса
может достаточно
сильно
отличаться от системы, которая должна производить прогно-
зирование
неустойчивого процесса с частыми фундаментальными изме-
нениями.
В первом случае, необходимо активное использование исто-
рических
данных для предсказания будущего, в то время как во вто-
ром
лучше сосредоточиться на субъективной оценке и
прогнозирова-
нии для
определения изменений в процессе.
Другой фактор это доступность данных.
Исторические данные
необходимы
для построения прогнозирующих процедур; будущие наблю-
дения
служат для проверки прогноза. Количество, точность и досто-
верность
этой информации важны при прогнозировании.
Кроме этого
необходимо
исследовать представительность этих данных. Классичес-
ким
примером, является прогнозирование требования
клиентов на
производимый
продукт, когда компания хранит записи о
заказах по
времени
их доставки.
Такой учет не отражает фактического
требования, так как
в
нем не
учитываются заказы, поставленные раньше
срока, и заказы
отмененные
из-за неудовлетворительного срока
поставки. Компания
должна
установить специальную процедуру сбора данных, если ее ин-
тересует
информация о том, сколько же ее клиенты
на самом деле
желают
приобрести продукции. Проблемы
подобного типа возникают
также,
когда не учитываются потери продаж из-за ограниченных воз-
можностей
производства.
Источником ошибок при прогнозировании
продаж является разли-
чие
между прогнозом "того, что может быть продано" и
"тем, что
будет
продано". Первая задача оценивает реальную возможность для
компании
продать свой продукт, без учета ограничений
по объему.
Такой
прогноз необходим при определении
доли продукта в
общем
производстве.
Вторая задача отражает ограничения объема производ-
ства,
решение менеджеров, а также план или цель.
Такой прогноз,
скорее,
следует назвать бюджетом. Здесь
мы предполагаем, что
прогноз
продажи, в большинстве случаев, будет
коррелировать с
бюджетом
продажи - ведь цель менеджера бороться за то, чтобы по-
высить
уровень продаж.
Необходимо отметить вычислительные
ограничения прогнозирую-
щих
систем. Если изредка прогнозируется несколько переменных, то
в
системе возможно применение более
глубоких процедур анализа,
чем
если необходимо часто прогнозировать большое
число перемен-
ных. В
последней ситуации, необходимо
большое внимание уделить
разработке
эффективного управления данными.
И, наконец, два важных фактора проблемы
прогнозирования -
возможности
и интерес людей, которые делают и используют прогноз.
В
идеале, историческая информация анализируется
автоматически и
прогноз
представляется менеджеру для возможной модификации. Вве-
дение
эксперта в процесс прогнозирования является
очень важным,
но
требует сотрудничества опытных менеджеров. Далее прогноз пере-
дается
менеджерам, которые используют его при принятии решений. И
даже
если они говорят, что прогноз это всего-лишь
болтовня, они
могут
получить реальную пользу от его использования.
1.3. Методы прогнозирования
Методы прогнозирования можно разделить на
два класса квали-
тативные
и квантитативные, в зависимости от того, какие математи-
ческие
методы используются.
Квалитативные процедуры производят
субъективную оценку, ос-
нованную
на мнении экспертов. Обычно, это формальная
процедура
для
получения обобщенного предсказывания, на основе ранжирования
и
обобщения мнения экспертов (например на основе методов Делфи).
Эти
процедуры основываются на опросах, тестах,
оценке эффектив-
ности
продаж и исторических данных, но процесс с помощью которо-
го
получается прогноз остается субъективным.
С другой стороны, квантиативные процедуры прогнозирования
явно
объявляют - каким образом получен прогноз. Четко видна логи-
ка и
понятны математические операции. Эти методы
производят ис-
следование
исторических данных для того, чтобы определить глубин-
ный
процесс, генерирующий переменную и предположив, что процесс
стабилен,
использовать знания о нем для того, чтобы экстраполиро-
вать
процесс в будущее. К квантитативным процедурам прогнозирова-
ния
относятся методы основанные на статистическом анализе, анали-
зе
временных последовательностей, байесовском
прогнозировании,
наборе
фрактальных методов, нейронных сетях.
Сейчас используется два основных типа
моделей: модели вре-
менных
последовательностей и причинные модели.
Временная последовательность - это
упорядоченная во времени
последовательность наблюдений
(реализаций) переменной. Анализ
временных
последовательностей использует для прогнозирования пе-
ременной
только исторические данные о ее изменении.
Таким обра-
зом,
если исследование данных о
ежемесячных продажах автомо-
бильных
шин, показывает, что они линейно возрастают -
для пред-
ставления
данного процесса может быть выбрана
линейная модель
тренда.
Наклон и смещение этой прямой могут быть оценены на осно-
ве
исторических данных. Прогнозирование может
быть осуществлено
путем
экстраполяции подходящей модели, как показано на рис. 1.2.
Месячная і Прогноз
продажа і *
шин і
і
і
і
і
АДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДД
Сегодня Будущее
Месяцы
Рис. 1.2. Прогноз на основе линейного
тренда. Иллюстрация к
прогнозированию
на основе временной последовательности.
Причинные модели используют связь
между интересующей нас
временной
последовательностью и одной или более другими временны-
ми
последовательностями. Если эти другие переменные коррелируют с
интересующей
нас переменной и если существуют
причины для этой
корреляции,
модели прогнозирования, описывающие эти отношения мо-
гут
быть очень полезными. В этом случае, зная
значение коррели-
рующих
переменных, можно построить модель прогноза зависимой пе-
ременной.
Например, анализ может указать четкую корреляцию между
уровнем
ежемесячной продажи шин и уровнем месячной продажи новых
автомобилей
15 месяцев назад. В этом случае информация
о прода-
жах
новых автомобилей 14 месяцев назад будет полезной для того,
чтобы
предсказывать продажу шин в следующем месяце. Это показано
на рис.
1.3.
Месячная і
продажа і
шин і
і
і
і
і
АДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДДБДДД
Продажа автомобилей 15
месяцев назад
Рис. 1.3. Иллюстрация к прогнозированию
на основе причинной
модели.
Серьезным ограничением использования
причинных моделей яв-
ляется
требование того, чтобы независимая переменная была извес-
тна ко
времени, когда делается прогноз.
Факт, что продажа
шин
коррелирует
с продажей новых автомобилей 15 месяцев назад, беспо-
лезен
при прогнозировании уровня продаж шин на 18 месяцев вперед.
Аналогично,
знание о том, что уровень продаж
шин коррелирует с
текущими
ценами на бензин, нам ничего не дает - ведь мы не знаем
точных
цен на бензин на месяц, для которого
мы делаем прогноз.
Другое
ограничение причинных методов - большое количество вычис-
лений и
данных, которое необходимо сравнивать.
Практически, прогнозирующие системы часто
используют комби-
нацию
квантитативных и квалитативных методов. Квантитативные ме-
тоды
используются для последовательного анализа исторических дан-
ных и
формирование прогноза. Это придает системе объективность и
позволяет
эффективно организовать обработку исторических
данных.
Данные
прогноза далее становятся входными данными для
субъектив-
ной
оценки опытными менеджерами, которые
могут модифицировать
прогноз
в соответствии с их взглядами на информацию и их восприя-
тие
будущего.
На выбор
соответствующего метода прогнозирования, влияют
следующие
факторы, большинство которых было описано в
предыдущем
разделе.
- требуемая форма прогноза;
- горизонт, период и интервал
прогнозирования;
- доступность данных;
- требуемая точность;
- поведение прогнозируемого процесса;
- стоимость разработки, установки и
работы с системой;
- простота работы с системой;
- понимание и сотрудничество управляющих.
1.4. Модели временных
последовательностей
Используемые для наших целей
временные последовательности
представляют
собой последовательность наблюдений за
интересующей
переменной.
Переменная наблюдается через дискретные
промежутки
времени.
Анализ временных последовательностей
включает описание
процесса
или феномена, который генерирует последовательность. Для
предсказания
временных последовательностей,
необходимо предста-
вить
поведение процесса в виде математической модели, которая мо-
жет
быть распространена в будущем. Для
этого необходимо, чтобы
модель
хорошо представляла наблюдения в любом локальном сегменте
времени,
близком к настоящему. Обычно нет необходимости иметь мо-
дель,
которая представляла бы очень старые
наблюдения, так как
они
скорее всего не характеризуют
настоящий момент. Также
нет
необходимости
представлять наблюдения в далеком будущем, т.е. че-
рез
промежуток времени, больший чем
горизонт прогнозирования.
После
того, как будет сформирована корректная модель для обработ-
ки
временной последовательности, можно
разрабатывать соответ-
ствующие
средства прогнозирования.
і і
Xtі Xtі
і і
і і
АДДДДДДДДДДДДДДДДДДДДДДДДДДД АДДДДДДДДДДДДДДДДДДДДДДДДДДД
(a) t
(b) t
і і
Xtі Xtі
і і
і і
АДДДДДДДДДДДДДДДДДДДДДДДДДДД АДДДДДДДДДДДДДДДДДДДДДДДДДДД
(c) t
(d) t
і і
Xtі Xtі
і і
і і
АДДДДДДДДДДДДДДДДДДДДДДДДДДД АДДДДДДДДДДДДДДДДДДДДДДДДДДД
(e) t
(f) t
Рис. 1.4. Примеры временных последовательностей. (a)
кон-
стантный
процесс; (b) линейный тренд; (c) сезонный
процесс; (d)
импульс;
(e) шаговое изменение; (f) рамп.
Образцы временных последовательностей
показаны на рис. 1.4,
где Хi
это наблюдения за период t. На рис. 1.4а, показан процесс,
остающейся
с течением времени на постоянном уровне,
но обладаю-
щий
разной вариацией в разные периоды. На (b) изображен тренд с
изменяющимся
уровнем процесса. На (c) приведен пример циклическо-
го
процесса, как например в случае
продажи сезонных продуктов.
Сезонные
изменения могут возникать из-за таких причин как: пого-
да (и,
следовательно, потребность в прохладительных напитках);
обычаи
(Рождественские открытки) и т.д. Большинство моделей прог-
нозирования временных
последовательностей
разрабатываются для
представления
этих вариантов последовательностей: константных,
тренда,
периодических (циклических), или их комбинаций.
Кроме этих моделей существуют
их варианты, появляющиеся,
когда в
процессе, генерирующем переменную, возникают
глубинные
изменения.
Образец импульсной модели показан на (d). На один пе-
риод
процесс перешел на более высокий уровень, а потом ввернулся
на
предыдущий уровень. Примером может быть кратковременное увели-
чение
продаж из-за забастовки на заводе
конкурентов. В примере
(e),
переход на новый уровень остается постоянным, о таком про-
цессе
мы будем говорить, как о процессе с
шаговым изменением.
Причиной
такого изменения, например, может быть приобретение но-
вого
клиента. И, наконец, (f) показывает пример последовательнос-
ти,
которая некоторое время находилась на
постоянном уровне, а
потом
неожиданно перешла в тренд. Так как эти три типа изменений
достаточно
часто встречаются на практике, мы
хотим, чтобы наша
прогнозирующая
система идентифицировала
постоянные изменения и
подстраивала
модель прогнозирования под изменения в процессе.
1.5. Критерии
производительности
Существуют ряд измерений, которые могут
быть использованы
для
оценки эффективности прогнозирующей системы. Среди них наибо-
лее
важными являются: точность прогнозирования, стоимость систе-
мы,
результирующая польза, свойства стабильности и отзывчивости.
Точность метода прогнозирования
определяется на основе ана-
лиза
возникшей ошибки прогнозирования. Если Xt это реальное наб-
людение
за период t и Xt это сделанный
ранее прогноз, ошибка
прогнозирования
за период t
et = Xt - Xt (1.1)
Для конкретного процесса и
метода прогнозирования ошибка
прогнозирования
рассматривается как случайная величина
со сред-
ним
E(e) и вариацией Ge. Если при
прогнозировании отсутствует
систематическая
ошибка, то E(e) = 0. Поэтому для определения точ-
ности
прогнозирования используется ожидаемая квадратичная ошибка
E [|et|] = E [|Xt-Xt|] (1.2)
или
ожидаемая квадратичная ошибка
E [et2] = E [(Xt-Xt)2] (1.3)
Заметим, что ожидаемая квадратичная
ошибка обычно называет-
ся
средней квадратичной ошибкой, и соответствует Ge2, если сущес-
твует
систематическая ошибка прогнозирования.
При анализе ошибки прогнозирования,
общепринято каждый пе-
риод
использовать так называемый тест пути сигнала.
Целью этого
теста
является определение, присутствуют ли систематическая ошиб-
ка
прогнозирования. Путевой сигнал вычисляется путем деления оце-
ненной
предполагаемой ошибки прогнозирования на измеренную вариа-
цию
ошибки прогнозирования, определенную как
среднее абсолютное
отклонение.
Если в прогнозе отсутствует систематическая ошибка -
путевой
сигнал должен быть близок к нулю.
Конечно, стоимость является важным
элементом при оценке и
сравнении
методов прогнозирования. Ее можно разделить на
однора-
зовые
затраты на разработку и установку системы и затраты на ее
эксплуатацию.
Что касается затрат на
эксплуатацию, то разные
прогнозирующие
процедуры могут очень сильно отличаться
по стои-
мости
получения данных, эффективности вычислений
и уровню дей-
ствий,
необходимых для поддержания системы.
Польза прогноза в улучшении принимаемых
решений зависит от
горизонта
прогнозирования и формы прогноза также
как и от его
точности.
Прибыль должна измеряться для всей
системы управления
как
единого целого и прогнозирование - только один
элемент этой
системы.
Мы можем также сравнивать методы
прогнозирования с точки
зрения
реакции на постоянные изменения во временной
последова-
тельности,
описывающей процесс, и стабильности
при случайных и
кратковременных
изменениях.
ВЫВОДЫ
При определении интервала
прогнозирования необходимо выби-
рать
между риском не идентифицировать изменения в
прогнозируемом
процессе
и стоимостью прогноза. Если мы
используем значительный
период
прогнозирования, мы можем работать
достаточно длительное
время в
соответствии с планами,
основанными на, возможно,
уже
бессмысленном
прогнозе.С другой стороны, если мы
используем бо-
лее
короткий интервал, нам приходиться оплачивать не только стои-
мость
прогнозирования, но и затраты на изменение планов, с тем,
чтобы
они соответствовали новому прогнозу.
Наилучший интервал
прогнозирования
зависит от стабильности процесса, последствий ис-
пользования
неправильного прогноза, стоимости
прогнозирования и
репланирования.
Посредством данных, необходимых для
прогнозирующей системы,
в
систему может подаваться и ошибка, поэтому необходимо редакти-
ровать
входные данные системы для того, чтобы
устранить очевид-
ные или
вероятные ошибки. Конечно, небольшие ошибки идентифициро-
вать
будет невозможно, но они обычно не
оказывают значительного
влияния
на прогноз. Более значительные ошибки легче найти и ис-
править.
Прогнозирующая система также не
должна реагировать на
необычные,
экстраординарные наблюдения.
Если мы прогнозируем требование на
продукт - любые продажи,
которые
рассматриваются как нетипичные или экстремальные, конеч-
но
должны быть занесены в записи, но не должны включаться в дан-
ные
используемые для прогнозирования. Например,
производитель,
который
обслуживает ряд поставщиков, получает
нового клиента.
Первые
заказы этого клиента, скорее всего, не будут типичными для
его
более поздних заказов, так как в начале он находился на эта-
пе
исследования нового товара.
Симуляция является полезным средством
при оценке различных
методов
прогнозирования. Метод симуляции основан на ретроспектив-
ном
использовании исторических данных. Для каждого метода прогно-
зирования
берется некоторая точка в прошлом
и начиная с
нее
вплоть
до текущего момента времени проводится симуляция прогнози-
рования.
Измеренная ошибка прогнозирования может быть использова-
на для
сравнения методов прогнозирования. Если
предполагается,
что
будущее отличается от прошлого, может быть создана псевдоис-
тория,
основанная на субъективном взгляде на будущую природу вре-
менной
последовательности, и использована при симуляции.
Исторические данные
і
ЪДДДДДДДДДДДДДї
і
Генерация і<ДДДДДДДДДДДДДДДї
і прогноза і і
АДДДДДДДДДДДДДЩ і
і ЪДДДДДДДДДДДДДДї
і і
Управление і
Прогноз ДДДДДДДДДД>і прогнозом
<ДДДДДДД Текущие
і АДДДДДДДДДДДДДДЩ наблюдения
і
ЪДДДДДДДДДДДДДї
і
Мнение і
і
менеджера і
АДДДДДДДДДДДДДЩ
і
і
Модифицированный
прогноз
Рис. 1.5. Соотношения между генерацией
прогноза и управле-
нием
прогнозом.
На основании анализа материала
данной главы можно сделать
вывод,
что прогнозирующая система должна выполнять
две основные
функции:
генерацию прогноза и управление
прогнозом. Генерация
прогноза
включает получение данных для уточнения модели прогнози-
рования,
проведение прогнозирования, учет мнения экспертов и пре-
доставление
результатов прогноза пользователю. Управление прогно-
зом
включает в себя наблюдение процесса прогнозирования для опре-
деления
неконтролируемых условий и поиск возможности для улучше-
ния
производительности прогнозирования. Важным
компонентом фун-
кции
управления является тестирование путевого
сигнала, описан-
ное в
разделе 1.5. Функция управления прогнозом также должна пе-
риодически
определять производительность прогнозирования
и пре-
доставлять результаты
соответствующему менеджеру. Соотношения
между
генерацией прогноза и управлением прогнозом
показано на
рис.
1.5.
- -
2. НЕЙРОННЫЕ СЕТИ. СОСТОЯНИЕ
ПРОБЛЕМЫ
В данной главе мы обсуждаем известные
модели НС: модель Мак-
калоха
и Питтса; модель Розенблата; модели
Хопфилда и Больцмана;
модель
на основе обратного распространения. Рассмотрена структура
и
особенности каждой из моделей.
Перечислены основные задачи ре-
шаемые
на основе НС, описаны способы реализации НС. Проведен ана-
лиз известных
моделей НС с точки зрения
решения решения задачи
прогнозирования.
2.1. Нейронные сети - основные понятия и
определения
В основу искусственных нейронных сетей
[2-4, 8]положены сле-
дующие
черты живых нейронных сетей,
позволяющие им хорошо справ-
ляться
с нерегулярными задачами:
- простой обрабатывающий элемент -
нейрон;
- очень
большое число нейронов участвует в обработке инфор-
мации;
- один
нейрон связан с большим числом других нейронов (гло-
бальные связи);
- изменяющиеся по весу связи между
нейронами;
- массированная параллельность обработки
информации.
Прототипом для создания нейрона послужил биологический ней-
рон
головного мозга. Биологический нейрон
имеет тело, совокуп-
ность
отростков - дендридов, по которым в
нейрон поступают вход-
ные
сигналы, и отросток - аксон, передающий
выходной сигнал ней-
рона
другим клеткам. Точка соединения дендрида и аксона называет-
ся
синапсом [13,47]. Упрощенно функционирование нейрона можно
представить
следующим образом:
1) нейрон получает от дендридов набор
(вектор) входных сиг-
налов;
2) в теле нейрона оценивается
суммарное значение входных
сигналов. Однако входы нейрона неравнозначны. Каждый
вход харак-
теризуется
некоторым весовым коэффициентом, определяющим важность
поступающей
по нему информации. Таким образом, нейрон не просто
суммирует
значения входных сигналов, а вычисляет скалярное произ-
ведение
вектора входных сигналов и вектора весовых коэффициентов;
3) нейрон формирует выходной сигнал, интенсивность которого
зависит от
значения вычисленного скалярного произведения. Если
- -
оно не
превышает некоторого заданного порога,
то выходной сигнал
не
формируется вовсе - нейрон "не срабатывает";
4) выходной сигнал поступает на аксон и
передается дендридам
других
нейронов.
Поведение искусственной нейронной сети
зависит как от значе-
ния
весовых параметров, так и от
функции возбуждения нейронов.
Известны три основных вида [17] функции
возбуждения: пороговая,
линейная
и сигмоидальная. Для пороговых
элементов выход устанав-
ливается на одном из двух уровней в зависимости от
того, больше
или
меньше суммарный сигнал на входе нейрона некоторого порогово-
го
значения. Для линейных элементов выходная активность пропорци-
ональна
суммарному взвешенному входу нейрона.
Для сигмоидальных
элементов в
зависимости от входного сигнала,
выход варьируется
непрерывно,
но не линейно, по мере изменения входа. Сигмоидальные
элементы
имеют больше сходства с реальными нейронами,
чем линей-
ные или
пороговые, но любой из этих типов
можно рассматривать
лишь
как приближение.
Нейронная сеть представляет собой
совокупность большого чис-
ла
сравнительно простых элементов - нейронов,
топология соедине-
ний
которых зависит от типа сети. Чтобы
создать нейронную сеть
для
решения какой-либо конкретной задачи,
мы должны выбрать, ка-
ким
образом следует соединять нейроны друг с другом, и соответс-
твующим образом
подобрать значения весовых параметров на этих
связях. Может ли влиять один элемент на другой,
зависит от уста-
новленных
соединений. Вес соединения определяет силу влияния.
2.2. Модели нейронных сетей
2.2.1. Модель Маккалоха
Теоретические основы нейроматематики были заложены в начале
40-х
годов. В 1943 году У. Маккалох и его ученик У. Питтс сформу-
лировали основные
положения теории деятельности
головного моз-
га[9].
Ими были получены следующие результаты:
- разработана модель нейрона как
простейшего процессорного
элемента,
выполняющего вычисление переходной функции от скалярно-
го произведения вектора входных сигналов и
вектора весовых коэф-
фициентов;
- -
- предложена конструкция сети таких
элементов для выполнения
логических
и арифметических операций;
- сделано основополагающее
предположение о том, что такая
сеть
способна обучаться, распознавать образы, обобщать полученную
информацию.
Несмотря на то, что за прошедшие годы нейроматематика ушла
далеко
вперед, многие утверждения Макклоха остаются актуальными и
поныне. В частности, при большом разнообразии моделей
нейронов
принцип
их действия, заложенный Макклохом и Питтсом, остается не-
изменным.
Недостатком данной модели
является сама модель нейрона -
"пороговой"
вид переходной функции. В формализме
У. Маккалоха и
У.
Питтса нейроны имеют состояния 0, 1 и пороговую логику перехо-
да из
состояния в состояние. Каждый нейрон
в сети определяет
взвешенную
сумму состояний всех других нейронов и сравнивает ее с
порогом, чтобы определить свое собственное
состояние. Пороговый
вид функции не предоставляет нейронной сети
достаточную гибкость
при
обучении и настройке на заданную задачу. Если значение вычис-
ленного
скалярного произведения, даже незначительно, не достигает
до
заданного порога, то выходной сигнал не
формируется вовсе и
нейрон
"не срабатывает". Это
значит, что теряется интенсивность
выходного
сигнала (аксона) данного нейрона и, следовательно, фор-
мируется
невысокое значение уровня на взвешенных входах в следую-
щем
слое нейронов.
2.2.2. Модель Розенблата
Серьезное развитие нейрокибернетика
получила в работах аме-
риканского нейрофизиолога Френсиса Розенблата
(Корнелльский уни-
верситет). В 1958 году он предложил свою модель
нейронной сети.
Розенблат ввел в модель Маккаллока и Питтса
способность связей к
модификации, что сделало ее обучаемой. Эта модель была названа
персептроном
[11, 12, 46, 47]. Первоначально персептрон представ-
лял
собой однослойную структуру с жесткой пороговой функцией про-
цессорного
элемента и бинарными или многозначными входами. Первые
персептроны
были способны распознавать некоторые буквы латинского
алфавита. Впоследствии модель персептрона была значительно усо-
вершенствована
[47].
- -
Персептрон применялся для задачи автоматической классифика-
ции, которая в общем случае состоит в
разделении пространства
признаков
между заданным количеством классов. В двухмерном случае
требуется
провести линию на плоскости, отделяющую одну область от
другой. Персептрон
способен делить пространство
только прямыми
линиями
(плоскостями) [6, 11].
Алгоритм обучения персептрона выглядит
следующим образом:
1) системе предъявляется эталонный образ;
2) если выходы системы срабатывают
правильно, весовые коэф-
фициенты
связей не изменяются;
3) если выходы срабатывают
неправильно, весовым коэффициен-
там
дается небольшое приращение в сторону повышения качества рас-
познавания.
Серьезным недостатком персептрона
является то, что не всегда
существует такая
комбинация весовых коэффициентов,
при которой
имеющееся
множество образов будет распознаваться данным
персепт-
роном.
Причина этого недостатка состоит в том, что лишь небольшое
количество
задач предполагает, что линия, разделяющая
эталоны,
будет
прямой. Обычно это достаточно сложная кривая, замкнутая или
разомкнутая. Если учесть, что однослойный персептрон
реализует
только
линейную разделяющую поверхность,
применение его там, где
требуется
нелинейная, приводит к неверному
распознаванию (эта
проблема
называется линейной неразделимостью пространства призна-
ков). Выходом из этого положения является
использование многос-
лойного персептрона, способного строить ломаную границу между
распознаваемыми
образами.
Описанная проблема не является
единственной трудностью, воз-
никающей
при работе с персептронами - также слабо
формализован
метод
обучения персептрона. Персептрон поставил ряд вопросов, ра-
бота
над решением которых привела к созданию
более "разумных"
нейронных сетей
и разработке методов,
нашедших применение не
только
в нейрокибернетике (например, метод группового учета аргу-
ментов,
применяемый для идентификации математических моделей).
- -
2.2.3. Модель Хопфилда
В 70-е годы интерес к нейронным сетям
значительно упал, од-
нако
работы по их исследованию продолжались.
Был предложен ряд
интересных
разработок, таких, например, как
когнитрон, способный
хорошо
распознавать достаточно сложные образы (иероглифы и т.п.)
независимо
от поворота и изменения масштаба изображения.
Автором
когнитрона
является японский ученый И. Фукушима.
Новый виток быстрого развития моделей
нейронных сетей, кото-
рый
начался 8-9 лет тому назад, связан с работами Амари, Андерсо-
на, Карпентера,
Кохена [24, 28, 29] и других, и
в особенности,
Хопфилда
[17, 37-40], а также под влиянием
обещающих успехов оп-
тических
технологий [1, 26] и зрелой фазы
развития СБИС [29] для
реализации
новых архитектур.
Начало современному математическому моделированию нейронных
вычислений
было положено работами Хопфилда в 1982 году, в которых
была
сформулирована математическая модель ассоциативной памяти на
нейронной
сети с использованием правила Хеббиана [36]
для прог-
раммирования
сети. Но не столько сама модель
послужила толчком к
появлению
работ других авторов на эту тему,
сколько введенная
Хопфилдом
функция вычислительной энергии нейронной сети. Это ана-
лог
функции Ляпунова в динамических системах.
Показано, что для
однослойной нейронной
сети со связями типа "все на всех" харак-
терна
сходимость к одной из конечного множества
равновесных то-
чек, которые являются локальными минимумами
функции энергии, со-
держащей
в себе всю структуру взаимосвязей в сети.
Понимание та-
кой
динамики в нейронной сети было и у других исследователей. Од-
нако, Хопфилд и Тэнк [17] показали как
конструировать функцию
энергии для конкретной оптимизационной задачи и как
использовать
ее для
отображения задачи в нейронную сеть.
Этот подход получил
развитие и
для решения других комбинаторных оптимизационных за-
дач. Привлекательность подхода Хопфилда состоит в
том, что ней-
ронная сеть
для конкретной задачи может быть
запрограммирована
без
обучающих итераций. Веса связей вычисляются на основании вида
функции
энергии, сконструированной для этой задачи.
Развитием модели Хопфилда для решения
комбинаторных оптими-
зационных
задач и задач искусственного интеллекта является машина
Больцмана, предложенная и исследованная Джефери Е.
Хинтоном и Р.
Земелом
[20-23]. В ней, как и в других моделях, нейрон имеет сос-
тояния
1, 0 и связь между нейронами обладает весом. Каждое состо-
яние сети характеризуется определенным значением
функции консен-
- -
суса
(аналог функции энергии). Максимум
функции консенсуса соот-
ветствует
оптимальному решению задачи.
Имеется следующая информация о
результатах моделирования на
ЭВМ
работы нейронной сети. Моделировалась асинхронная работа сети
Хопфилда. Сеть работает хорошо, т.е. без ошибок восстанавливает
эталонные образы из случайных, если в нее записывается не более
15
% эталонных образов. Испытания проводились для 30 нейронов и
для 100 нейронов в сети. Бралось некоторое количество случайных
векторов
в качестве эталонных и строилась соответствующая матрица
весов
связей. Моделирование при 100 нейронах было существенно бо-
лее
медленным процессам, чем при 30
нейронах, хотя качественная
картина и в том и в другом случаях была одна и та
же. Приблизи-
тельно
88 % испытаний заканчивались в
эталонных состояниях, 10 %
- в
устойчивых состояниях, близких к эталонным. При расстоянии <=
5 между
начальным и эталонным векторами, эталонное состояние дос-
тигалось
в 90 % случаев. С увеличением расстояния, вероятность
попадания
в наиболее близкое эталонное состояние
гладко падала.
При
расстоянии 12 вероятность была равна 0.2.
Устойчивые состоя-
ния, слишком близкие друг к другу, имеют тенденцию "сливаться",
они
попадают в одну впадину на энергетической поверхности. Прог-
раммировалась
задача коммивояжера на основе сети Хопфилда.
Сетью
из 100
нейронов для 20 различных
случайных начальных состояний
были
определены маршруты, 16 из которых были приемлемыми, 50% по-
пыток дали 2 пути 2.83 и 2.71 (цифры
приводятся, чтобы показать
как они
близки) при кратчайшем 2.67. Это результаты моделирования
работы сети с непрерывной моделью нейрона. Моделировалась также
задача
коммивояжера, но для сети типа машина
Больцмана, проводи-
лась
при следующих значениях управляющих параметров: A = 0.95, L
= 10, M
= 100 (A - положительное число меньше единицы, но близкое
к ней,
L - число испытаний, которые проводятся без изменений, M -
число
последовательных испытаний, не
приводящих к изменению сос-
тояния
машины, как критерия завершения
процесса). Процесс запус-
кался 100
раз для n = 10 (всего в сети N = n^2 нейронов) и 25 раз
для n = 30 при различных нормальных состояниях
машины Больцмана.
Для n =
10 получился оптимальный результат, для
n = 30 - решение
на 14
% хуже оптимального. Отметим,
что вероятностный механизм
функционирования
машины Больцмана дает возможность получить
на
ней несколько лучшие результаты
оптимизации, чем на модели Хоп-
филда.
- -
2.2.4. Модель сети с обратным
распространением
Способом обратного распространения (back propogation) назы-
вается
способ обучения многослойных НС. В
таких НС связи между
собой
имеют только соседние слои, при этом каждый нейрон предыду-
щего
слоя связан со всеми нейронами последующего слоя [5, 8, 16,
27, 30,
42, 48, 49]. Нейроны обычно имеют сигмоидальную функцию
возбуждения. Первый слой нейронов называется входным
и содержит
число
нейронов соответствующее распознаваемому образу. Последний
слой
нейронов называется выходным и
содержит столько нейронов,
сколько классов
образов распознается. Между
входным и выходным
слоями
располагается один или более скрытых (теневых) слоев. Оп-
ределение числа скрытых слоев и числа нейронов в
каждом слое для
конкретной
задачи является неформальной задачей.
Принцип обучения такой нейронной сети
базируется на вычисле-
нии
отклонений значений сигналов на выходных процессорных элемен-
тах от
эталонных и обратном "прогоне" этих отклонений до породив-
ших их
элементов с целью коррекции ошибки. Еще
в 1974 году Поль
Дж. Вербос
[5] изобрел значительно более
эффективную процедуру
для
вычисления величины, называемой
производной ошибки по весу,
когда работал
над своей докторской диссертацией в Гарвардском
университете. Процедура, известная теперь как алгоритм
обратного
распространения, стала
одним из наиболее важных
инструментов в
обучении
нейронных сетей [5, 16, 27, 30, 42, 48, 49]. Однако это-
му алгоритму свойственны и недостатки, главный из которых - от-
сутствие
сколько-нибудь приемлемых оценок времени обучения. Пони-
мание, что сеть в конце концов обучится, мало утешает, если на
это
могут уйти годы. Тем не менее, алгоритм обратного распростра-
нения имеет широчайшее применение. Например,
успех фирмы NEC в
распознавании
букв, был достигнут именно благодаря
алгоритму об-
ратного
распространения. Подробнее метод
обратного распростране-
ния
описан в главе 3.
- -
2.3. Задачи, решаемые на основе
нейронных сетей
В литературе [33, 41,
43] встречается
значительное число
признаков, которыми должна обладать задача, чтобы применение НС
было
оправдано и НС могла бы ее решить:
- отсутствует алгоритм или не известны принципы решения за-
дач, но накоплено достаточное число
примеров;
- проблема характеризуется большими объемами входной инфор-
мации;
- данные неполны или избыточны,
зашумлены, частично противо-
речивы.
Таким образом, НС хорошо подходят для распознавания образов
и
решения задач классификации, оптимизации и прогнозирования. Ни-
же приведен перечень возможных промышленных
применений нейронных
сетей, на базе которых либо уже созданы коммерческие продукты,
либо
реализованы демонстрационные прототипы [7,
10, 18, 25, 35,
45,
50].
Банки и страховые компании:
- автоматическое считывание чеков и
финансовых документов;
- проверка достоверности подписей;
- оценка риска для займов;
- прогнозирование изменений экономических
показателей.
Административное обслуживание:
- автоматическое считывание документов;
- автоматическое распознавание штриховых
кодов.
Нефтяная и химическая промышленность:
- анализ геологической информации;
- идентификация неисправностей
оборудования;
- разведка залежей минералов по данным
аэрофотосъемок;
- анализ составов примесей;
- управление процессами.
Военная промышленность и аэронавтика:
- обработка звуковых сигналов (разделение, идентификация,
локализация, устранение шума,
интерпретация);
- обработка радарных сигналов
(распознавание целей, иденти-
фикация и локализация источников);
- обработка инфракрасных сигналов
(локализация);
- обобщение информации;
- автоматическое пилотирование.
Промышленное производство:
- -
- управление манипуляторами;
- управление качеством;
- управление процессами;
- обнаружение неисправностей;
- адаптивная робототехника;
- управление голосом.
Служба безопасности:
- распознавание лиц, голосов, отпечатков
пальцев.
Биомедицинская промышленность:
- анализ рентгенограмм;
- обнаружение отклонений в ЭКГ.
Телевидение и связь:
- адаптивное управление сетью связи;
- сжатие и восстановление изображения.
Представленный перечень далеко не полон.
Ежемесячно западные
средства массовой
информации сообщают о новых коммерческих про-
дуктах
на базе нейронных сетей. Так, фирма LIAC выпускает аппара-
туру
для контроля качества воды.
Нейросистемы фирмы SAIC находят
пластиковые
бомбы в багаже авиапассажиров. Специалисты инвестици-
онного
банка Citicomp (Лондон) с помощью программного нейропакета
делают
краткосрочные прогнозы колебаний курсов валют.
2.4. Способы реализации нейронных
сетей
Нейронные сети могут быть реализованы
двумя путями: первый -
это
программная модель НС [2, 3, 15,
34], второй - аппаратная
[14,
31, 34, 45, 50]. На современном рынке изделия, основанные на
использовании механизма
действия НС, первоначально
появились в
виде
нейроплат. В качестве типичного примера
нейроплаты можно
назвать
плату МВ 86232 японской фирмы Fujitsu. На плате размещены
процессор
цифровой обработки сигналов и
оперативная память ем-
костью
4 Мбайт, что позволяет использовать такую плату для реали-
зации
НС, содержащих до тысячи нейронов. Есть и более совершенные
платы.
Основными коммерческими аппаратными
изделиями на основе НС
являются
и, вероятно, в ближайшее время будут оставаться нейро-
БИС. Сейчас выпускаются более 20 типов нейроБИС,
параметры кото-
рых порой различаются на несколько
порядков. Среди них - модель
- -
ETANN
фирмы Intel. Эта БИС, выполненная по
микронной технологии,
является
реализацией НС с 64т нейронами и 10240 синапсами. Ее це-
на 2000
долл.
К числу
самых дешевых нейроБИС (41
долл.) относится модель
MD 1220
фирмы Micro Devices. Эта БИС реализует НС с 8 нейронами и
120
синапсами.
Среди разрабатываемых в настоящее время
нейроБИС выделяются
модели
фирмы Adaptive Solutions (США) и Hitachi (Япония). Нейро-
БИС
фирмы Adaptive Solutions,
вероятно, станет одной из
самых
быстродействующих: объявленная скорость обработки составляет
1,2
млрд. соединений / с. (НС содержит 64 нейрона и
262144 синапса).
НейроБИС фирмы
Hitachi позволяет реализовать НС,
содержащую до
576
нейронов. Эти нейроБИС, несомненно, станут основой новых ней-
рокомпьютеров
и специализированных многопроцессорных изделий.
Большинство сегодняшних нейрокомпьютеров
представляют собой
просто
персональный компьютер или рабочую станцию, в состав кото-
рых
входит дополнительная нейроплата. К их
числу относятся, нап-
ример, компьютеры
серии FMR фирмы Fujitsu. Такие
системы имеют
бесспорное
право на существование,
поскольку их возможностей
вполне
достаточно для разработки новых алгоритмов и решения боль-
шого
числа прикладных задач методами нейроматематики. Однако наи-
больший интерес представляют специализированные
нейрокомпьютеры,
непосредственно
реализующие принципы НС. Типичными представителя-
ми таких
систем являются компьютеры
семейства Mark фирмы TRW
(первая
реализация персептрона, разработанная
Розенблатом, назы-
валась
Mark I). Модель Mark III фирмы TRW
представляют собой ра-
бочую
станцию, содержащую до 15
процессоров семейства Motorola
68000 с
математическими сопроцессорами. Все процессоры объединены
шиной
VME. Архитектура системы, поддерживающая до 65 000 вирту-
альных процессорных элементов с более чем 1 млн.
настраиваемых
соединений, позволяет обрабатывать до 450 тыс. межсоединений/с.
Mark IV
- это однопроцессорный суперкомпьютер с конвейерной архи-
тектурой. Он поддерживает до 236 тыс. виртуальных
процессорных
элементов, что позволяет обрабатывать до 5 млн.
межсоединений/с.
Компьютеры
семейства Mark имеют общую программную
оболочку ANSE
(Artificial
Neural System Environment),
обеспечивающую программ-
ную
совместимость моделей. Помимо
указанных моделей фирмы
TRW
предлагает
также пакет Mark II - программный эмулятор НС.
- -
Другой интересной моделью является
нейрокомпьютер NETSIM,
созданный фирмой
Texas Instruments на базе разработок Кембридж-
ского
университета. Его топология
представляет собой трехмерную
решетку стандартных
вычислительных узлов на
базе процессоров
80188. Компьютер NETSIM используется для
моделирования таких мо-
делей
НС, как сеть Хопфилда - Кохонена и НС с
обратным распрост-
ранением. Его производительность достигает 450
млн. межсоедине-
ний/с.
Фирма Computer Recognitiion Systems (CRS)
продает серию ней-
рокомпьютеров
WIZARD/CRS 1000, предназначенных для
обработки ви-
деоизображений. Размер входной изображения 512 x 512
пикселей.
Модель CRS 1000 уже нашла применение в промышленных
системах ав-
томатического
контроля.
Сегодня на рынке представлено много
моделей нейрокомпьюте-
ров. На
самом деле их, видимо, гораздо больше, но наиболее мощные
и перспективные модели по-прежнему создаются
по заказам военных.
К
сожалению, не имея достаточной информации о моделях специально-
го
назначения, трудно составить представление об истинных возмож-
ностях
современных компьютеров.
ВЫВОДЫ
НС принадлежат классу
коннекционистских моделей
обработки
информации. Основная их черта - использовать взвешенные связи
между обрабатывающими элементами как
принципиальное средство за-
поминания
информации. Обработка в таких сетях ведется одновремен-
но
большим числом элементов, благодаря
чему они терпимы к неисп-
равностям
и способны к быстрым вычислениям.
Задать НС, способную решить конкретную задачу, - это значит
определить
модель нейрона, топологию связей, веса связей. Нейрон-
ные
сети различаются между собой меньше всего моделями нейрона, а
в
основном топологией связей и правилами
определения весов или
правилами
обучения, программирования.
По структуре связей сети делятся на два
больших класса: од-
нослойные
и многослойные. К однослойным относятся модель Хопфилда
[1, 21, 30, 42-44] и последующие разработки
[38], некоторые типы
модели
нейронной сети, известной под названием "машина Больцмана"
[28, 29].
Многослойная сеть имеет входной,
выходной и скрытые
слои, на входной подается информация, с выходного снимается от-
- -
вет,
скрытые слои участвуют в обработке [31].
В настоящее время существует два подхода к решению задачи
обучения
НС решению задачи распознавания образов,
оптимизации и
т.д. Один, исторически более ранний, состоит в
постепенной моди-
фикации
весовых коэффициентов в процессе обучения.
Подходы к обучению однослойных и многослойных сетей различ-
ны. Обучение многослойных сетей состоит в том,
что на основе на-
бора
примеров {входное состояние -> выходное состояние} постепен-
но
подбираются веса всех связей так, чтобы каждое входное состоя-
ние
вызывало соответствующее выходное. Обучающие алгоритмы предс-
тавляют
собою итерационные процедуры с медленным
приближением к
окончательным
значениям весов связей. Этот способ впервые был ре-
ализован
в персептроне Розенблата и локальных
правилах обучения
на основе
модели Хебба. В последующие годы
этот подход получил
дальнейшее
развитие в алгоритмах типа обратного
распространения.
В однослойных сетях часто удается
выразить веса связей через
параметры
задачи (так обстоит дело с моделью Хопфилда и однослой-
ной
машиной Больцмана). Подход состоит в
вычислении значений си-
наптический
весов на основе заданного описания функционирования
нейронной
сети как "черного ящика".
Если сеть должна реализовать
заданную
функцию, ее рассматривают как набор
элементов пороговой
логики и
задача сводится к
кусочно-линейной аппроксимации этой
зависимости
и синтезу соответствующего автомата.
Для общего случая, когда описание поведения сети задано в
виде
набора векторов возможных состояний, поиск синаптических ве-
сов
сводится к решению соответствующей системы нелинейных уравне-
ний.
Такое решение было впервые найдено Хопфилдом. Появление этой
работы
около 10 лет назад продемонстрировало эффективность приме-
нения
аналитических методов для интерпретации поведения нейронных
сетей и
привело к разработке проекционного алгоритма, позволяюще-
го
вычислять значения синаптических
весов, сократив тем
самым
затраты
времени на обучение.
Исследования проекционного алгоритма
показывают, что при
очевидных достоинствах ему свойственен ряд
недостатков, в част-
ности
склонность сети к ложным реакциям
и низкая эффективность
при
доучивании, когда необходимо ввести новые данные, не разрушая
информации, запомненной ранее. Кроме того, до настоящего
времени
принято
считать, что данный алгоритм пригоден лишь для полносвяз-
- -
ных
нейронных сетей и неприменим в сетях другой архитектуры. Ука-
занные
недостатки и малая изученность таких вопросов,
как струк-
тура и
частота появления ложных реакций,
реализация итеративных
процедур
доучивания и применение в неполносвязных сетях, затруд-
няет
использование проекционного
алгоритма в исследованиях по
нейробионике и при проектировании нейропроцессоров. Недостатком
проекционного
алгоритма с точки зрения решения задачи прогнозиро-
вания
является то, что при обучении необходимо с начала сформиро-
вать
эталоны распознаваемых образов. В задаче прогнозирования это
либо
вовсе невозможно, либо чрезвычайно затруднено. Эталоны долж-
ны
формироваться в самой сети на основе анализа исторических дан-
ных.
Исходя из вышеизложенного, можно заключить, что для решения
задач
прогнозирования наиболее подходит сеть с обратным распрост-
ранением.
Она позволяет формальным образом обучить сеть прогнози-
ровать изменение требования на основе исторических
данных о тре-
бовании.
3. ПРОГНОЗИРОВАНИЕ НА ОСНОВЕ
НЕЙРОННЫХ СЕТЕЙ
В данной
главе описан способ
прогнозирования с помощью НС,
основанный
на методе окон. Также приведен обзор
применения НС в
финансовой
сфере.
3.1. Общий подход к прогнозированию с
помощью нейронных
сетей
На НС задача прогнозирования
формализуется через задачу рас-
познавания
образов. Данных о прогнозируемой переменной за некото-
рый
промежуток времени образуют образ, класс которого определяет-
ся
значением прогнозируемой переменной в некоторый момент времени
за пределами данного промежутка т.е. значением переменной через
интервал
прогнозирования. Метод окон
предполагает использование
двух окон Wi и Wo с фиксированными размерами n и
m соответствен-
но. Эти окна, способны перемещаться с некоторым
шагом по времен-
ной последовательности исторических данных, начиная с первого
элемента, и предназначены для доступа к данным
временного ряда,
причем
первое окно Wi, получив такие данные,
передает их на вход
нейронной
сети, а второе - Wo - на выход.
Получающаяся на каждом
шаге
пара
Wi -> Wo (3.1)
используется
как элемент обучающей выборки (распознаваемый образ,
или
наблюдение).
Например, пусть есть данные о
еженедельных продажах режущего
инструмента
(k = 16):
100 94 90 96 91 94 95 99 95 98 100 97 99 98
96 98 (3.2)
Весь
ряд смотри приложение 1. Зададим n = 4,
m = 1, s = 1. С по-
мощью метода окон для нейронной сети будет
сгенерирована следую-
щая
обучающая выборка:
100 94 90 96 ->
91
94 90 96 91 ->
94
90 96 91 94 ->
95 (3.3)
96 91 94 95 ->
99
91 94 95 99 ->
95
и т.д.
Каждый следующий вектор получается в результате сдвига окон
Wi и Wo
вправо на один элемент (s = 1). Предполагается наличие
скрытых
зависимостей во временной последовательности как множест-
ве
наблюдений. Нейронная сеть, обучаясь на этих наблюдениях и со-
ответственно настраивая свои коэффициенты, пытается извлечь эти
закономерности
и сформировать в
результате требуемую функцию
прогноза
P.
Прогнозирование осуществляется по тому
же принципу, что и
формирование обучающей выборки. При этом выделяются две возмож-
ности:
одношаговое и многошаговое прогнозирование.
МНОГОШАГОВОЕ ПРОГНОЗИРОВАНИЕ.
Используется для осуществления
долгосрочного
прогноза и предназначено для определения
основного
тренда
и главных точек изменения тренда для некоторого промежутка
времени
в будущем. При этом прогнозирующая система использует по-
лученные
(выходные) данные для моментов времени k+1, k+2 и т.д. в
качестве
входных данных для прогнозирования
на моменты времени
k+2,
k+3 и т.д.
Предположим, система обучилась на временной
последователь-
ности
(3.2). Затем она спрогнозировала k+1 элемент последователь-
ности, например, равный 95, когда на ее вход был
подан последний
из
известных ей образов (99, 98, 96,
98). После этого она осу-
ществляет
дальнейшее прогнозирование и на вход подается следующий
образ
(98, 96, 98, 95). Последний элемент этого образа является
прогнозом
системы. И так далее.
ОДНОШАГОВОЕ ПРОГНОЗИРОВАНИЕ. Используется для краткосрочных
прогнозов, обычно - абсолютных значений
последовательности. Осу-
ществляется прогноз
только на один шаг вперед, но
используется
реальное,
а не прогнозируемое значение для осуществления прогноза
на
следующем шаге.
Для временной последовательности
3.2. На шаге k+1 система
прогнозирует
требование 95, хотя реальное значение (смотри прило-
жение
1) должно быть 96. На шаге k + 2 в качестве входного образа
будет
использоваться образ (98, 96, 98, 96).
Как было сказано выше, результатом прогноза на НС является
класс к
которому принадлежит переменная, а не
ее конкретное зна-
чение. Формирование классов должно проводиться в
зависимости от
того
каковы цели прогнозирования. Общий подход состоит в том, что
область определения
прогнозируемой переменной разбивается
на
классы в
соответствии с необходимой
точностью прогнозирования.
Классы
могут представлять качественный или
численный взгляд на
изменение
переменной.
3.2. Применение нейронных сетей в
финансовой сфере
Характерный пример успешного применения
нейронных вычислений
в
финансовой сфере - управление кредитными рисками. Как известно,
до
выдачи кредита банки проводят сложные
статистические расчеты
по финансовой
надежности заемщика, чтобы
оценить вероятность
собственных убытков
от несвоевременного возврата
финансовых
средств. Такие расчеты обычно базируются на оценке
кредитной ис-
тории, динамике развития компании, стабильности ее основных фи-
нансовых показателей
и многих других факторов. Один
широко из-
вестный
банк США опробовал метод нейронных вычислений и пришел к
выводу, что
та же задача по уже проделанным
расчетам подобного
рода
решается быстрее и точнее.
Например, в одном
из случаев
оценки
100 тыс. банковских счетов новая
система, построенная на
базе
нейронных вычислений, определила свыше
90% потенциальных
неплательщиков.
Другая очень важная область применения
нейронных вычислений
в финансовой
сфере - предсказание ситуации на фондовом рынке.
Стандартный
подход к этой задаче базируется на жестко фиксирован-
ном
наборе "правил игры", которые
со временем теряют свою эффек-
тивность
из-за изменения условий торгов на фондовой бирже. Кроме
того, системы, построенные на основе такого
подхода, оказываются
слишком
медленными для ситуаций, требующих
мгновенного принятия
решений. Именно поэтому основные японские
компании, оперирующие
на
рынке ценных бумаг, решили применить
метод нейронных вычисле-
ний. В
типичную систему на базе нейронной сети ввели информацию
общим
объемом в 33 года деловой активности
нескольких организа-
ций, включая оборот, предыдущую стоимость акций,
уровни дохода и
т.д. Самообучаясь на реальных примерах, система нейронной сети
показала большую
точность предсказания и лучшее быстродействие:
по
сравнению со статистическим подходом дала улучшение результа-
тивности
в целом на 19%.
Следующий пример, довольно близкий к области финансового
рынка,
- оценка стоимости недвижимости. Решение этой задачи зави-
сит в
основном от опыта сотрудника риэлтерской фирмы, учитывающе-
го
множество таких неравноценных факторов,
как доля собственнос-
ти, качество постройки, окружающая обстановка и
т.д. Группа исс-
ледователей из университета г.Портсмут (Великобритания)
заложила
в
вычислительную систему на базе нейронной сети данные по оценке
недвижимости из
обзоров риэлтеровских фирм и списков аукционных
цен. Результат показал, что самообучившаяся система дает оценки
стоимости,
хорошо коррелируемые с экспертными заключениями специ-
алистов
этого профиля.
Пример удачного прогнозирования динамики биржевых курсов по
заказу
Chemical Bank продемонстрировала фирма Logica.
На техни-
ческой базе
Sun SPARCstation LX с помощью
нейронных вычислений
моделировались
рынки валютных курсов доллар/швейцарский
франк и
немецкая
марка/швейцарский франк. Выбор именно
этих валют объяс-
нялся
высоким уровнем подвижности первого соотношения и малым -
второго
(до кризиса в 1993 году). Данные о
динамике кросс-курсов
этих
валют собирались с 1 октября 1992 года по 1 октября 1993 го-
да, при этом ценовые прогнозы характеризовались
пятью категория-
ми: большой рост, малый рост, без изменений,
малый спад, большой
спад. В
итоге нейронная система предсказала за вышеупомянутый го-
довой
период 55 % реальных данных по первому
соотношению валют и
23 % -
по второму.
Лондонская фондовая биржа (ЛФБ) начала
внедрение автоматизи-
рованной системы
с элементами искусственного интеллекта на базе
нейронных
вычислений для контроля внутреннего
дилинга. Первый
этап инсталляции
этой системы, разработанной
лондонской фирмой
SearchSpace
и получившей кодовое наименование
MonITARS (Monito-
ring
Insider Trading and Regulatory Surveillance), успешно завер-
шен.
По оценкам экспертов, бум вокруг
систем искусственного ин-
теллекта
в финансовой индустрии пришелся на период
1984 - 1989
гг. В
основном он затронул США и в меньшей степени Великобрита-
нию, где разработчики сложных имитационных систем
для военных
(типа программы
"Звездные войны") решили
попытать счастья на
Уолл-стрит. Многие разработчики действительно
обогатились, чего
нельзя сказать о финансовых структурах, чьи завышенные ожидания
эффекта
от внедрения подобных систем не
оправдались. Так, один
крупный инвестиционный банк на Уолл-стрит потратил более 1 млн.
долл. на разработку системы искусственного
интеллекта для финан-
совых
операций, но спустя некоторое время
вынужден был вернуться
к
старой,
"неинтеллектуальной".
Одной из причин неудачи был не-
достаточный по
сравнению с ожидаемым уровень производительности
системы,
полученный в результате ее внедрения.
Американская фондовая биржа в Нью-Йорке
пошла по аналогично-
му
пути, запустив в 1987 году
автоматизированную систему Stock-
watch
Alert Terminal (SWAT) II. Ее
расширенная версия - SWAT III
-
сейчас проходит бета-тестирование и,
видимо, будет внедрена в
начале
года. Правда, фирма SearchSpace утверждает,
что выбрала
другую
технологию (в отличие от SWAT),
называемую "генетическими
алгоритмами", и ведет переговоры о ее внедрении с рядом
бирж Ев-
ропы и
Дальнего Востока.
В настоящее время банки пришли к выводу,
что прикладные сис-
темы, разработанные на базе нейронных сетей, могут принести им
пользу. На рынке уже предлагаются продукты подобного
рода, опре-
деляющие
вероятность риска при выдаче кредита, а также пакеты мо-
делирования
и прогнозирования банкротства, анализа
портфеля цен-
ных
бумаг и торговли акциями. Нейронные
сети заменяют традицион-
ные
системы в таких научно-технических областях, как статистичес-
кие
методы, распознавание образов, линейный
и нелинейный матема-
тический
анализ.
Mellon equity Associates - подразделение
Mellon Bank в Питт-
сбурге (США)
- достаточно давно применяло собственную систему
анализа
линейной регрессии для распределения фондов и специальной
селекции
акций. В ходе работы они обнаружили, что между различны-
ми
оценочными параметрами существуют нелинейные связи, не поддаю-
щиеся
точному учету с помощью имеющегося у них инструментария.
Поскольку данное направление работ
составляет примерно поло-
вину всего бизнеса компании (под управлением
находится около 2.5
млрд. долл. инвестиций), то поиск более точных
средств стал жиз-
ненно важной
задачей. После тщательного анализа разных систем
разработок
ПО с помощью нейронных сетей Mellon Equity
Associates
выбрала
пакет Neural-Works Professional II/Plus 5.0 фирмы Neural-
Ware
(Питтсбург). Основанием для этого
послужило наличие у него
таких
возможностей, как усиленный темп
самообучения на базе "ге-
нетического
алгоритма", очень важного для моделирования систем "с
шумом".
По мнению руководителей NeuralWare Inc., методика линейного
статистического
анализа имеет следующие недостатки. При
финансо-
вых
расчетах существует сильная взаимосвязь между отношением це-
на/доходы одинаковых рынков и темпами изменения
дивидендов крат-
косрочных
инвестиций. Когда на кривой, отображающей динамику пос-
ледних, есть точки экстремума, то линейные методы
могут дать пе-
реоценку
первых.
Neural-Works Professional II/Plus
5.0, инсталлированный в
компании
Mellon Equity Associates, ориентирован
на IBM-совмести-
мый ПК
с 486-м процессором (правда, в качестве
препроцессора там
используется
мэйнфрейм VAX) и содержит компилятор языка C и стан-
дартные электронные
таблицы. Пакет внедрялся
в течение четы-
рех-пяти
месяцев и в рабочем режиме функционирует с
января 1994
года.
Гораздо более распространены
случаи, когда в
финансовых
структурах применяются
уже готовые приложения на базе нейронных
сетей,
например для автоматического распознавания чеков. Подобная
система Quick
Strokes-IFPS фирмы Mitek Systems (Сан-Диего, шт.
Калифорния)
была установлена в 1993 году в Федеральном
резервном
банке Чикаго.
Она позволяет оперативно распознавать сканируемые
чеки,
используя среду обработки данных на базе мэйнфрейма.
Департамент торговли и индустрии правительства Великобрита-
нии
спонсирует две программы, направленные
на развитие нейронных
вычислений в финансовой сфере. Это "Клуб нейропрогнозирования",
созданный
Лондонской школой бизнеса совместно
с университетским
колледжем
Лондона (UCL), и "Нейронные сети для финансовых услуг",
продвигаемый
фирмой TBS Bank Technology с UCL и Центром прогнози-
рования
Henley. Вместе с тем среди множества
финансовых институ-
тов, известных как пользователи или исследователи
этой техноло-
гии, фигурируют такие гиганты, как Chemical Bank, Citibank, JP
Morgan
и др.
Начав работу в этом направлении
сравнительно недавно, прог-
раммисты
Великобритании уже добились ощутимых результатов. Группа
специалистов, входящих
в "Клуб нейропрогнозирования", создала
нейронную
систему для выработки тактики распределения
фондов на
глобальных
рынках облигаций. Она охватывает семь
отдельных геог-
рафических
регионов: Великобританию, Францию, Германию, Японию,
США, Канаду,
Австралию, и каждый из них моделируется особой ло-
кальной
сетью нейронов. Все они проходят
своеобразный процесс
обучения на
исторических данных с целью получения краткосрочных
прогнозов
ситуации на этом рынке за каждый месяц.
Все локальные
предсказания затем объединяются в Центре управления
единым порт-
фелем
ценных бумаг.
Вышеописанная система с ноября 1992 года
поступила на воору-
жение
Североамериканской страховой компании в
Бостоне (США). В
итоге капитал
этой компании быстро увеличился с 25 до 50 млн.
долл., а портфель ценных бумаг показал доходность
свыше 25 % в
первый
же год внедрения системы. В этом нет ничего удивительного,
так как
нейронная сеть представляет собой универсальное средство
аппроксимации,
способное решить любую задачу.
Одна из наиболее передовых методик нейронных
вычислений -
генетические алгоритмы,
имитирующие эволюцию живых
организмов.
Поэтому
они могут быть использованы как оптимизатор
параметров
нейронной
сети. Подобная система для
прогнозирования результатов
контрактов
по долгосрочным ценным бумагам
повышенной надежности
была
разработана и инсталлирована на рабочей станции Sun в компа-
нии
Hill Samuel Investment Management. При моделировании несколь-
ких стратегий
торгов она достигла точности 57 %
в предсказании
направления
движения рынка. В страховой фирме TSB
General Insu-
rance
(Ньюпорт) используется сходная методика для прогноза уровня
риска
при страховании частных кредитов. Данная нейронная сеть са-
мообучается на
статистических данных о
состоянии безработицы в
стране.
ВЫВОДЫ
Прогнозирование на НС обладает рядом
недостатков. Вообще го-
воря, нам необходимо как минимум 50 и лучше
100 наблюдений для
создания
приемлемой модели. Это достаточно большое число данных и
существует
много случаев, когда такое
количество исторических
данных
недоступно. Например, при производстве сезонного товара,
истории
предыдущих сезонов недостаточно для прогноза
на текущий
сезон,
из-за изменения стиля продукта, политики продаж и т.д.
Даже при прогнозировании требования на
достаточно стабильный
продукт
на основе информации о ежемесячных продажах,
возможно мы
не
сможем накопить историю за период от 50 до
100 месяцев. Для
сезонных
процессов проблема еще более сложна.
Каждый сезон исто-
рии
фактически представляет собой одно
наблюдение. То есть,
в
ежемесячных наблюдениях за пять лет будет только пять
наблюдений
за
январь, пять наблюдений за февраль и
т.д. Может потребоваться
информация
за большее число сезонов для того, чтобы построить се-
зонную
модель. Однако, необходимо отметить,
что мы можем постро-
ить
удовлетворительную модель на НС даже в условиях нехватки дан-
ных.
Модель может уточняться по мере того, как свежие данные ста-
новится
доступными.
Другим недостатком нейронных моделей -
значительные затраты
по времени
и другим ресурсам для построения
удовлетворительной
модели. Эта проблема не очень важна, если исследуется небольшое
число
временных последовательностей. Тем не менее, обычно прогно-
зирующая
система в области управления производством
может вклю-
чать от
нескольких сотен до нескольких тысяч временных последова-
тельностей.
Однако, несмотря на перечисленные
недостатки, модель облада-
ет
рядом достоинств. Существует удобный способ модифицировать мо-
дель по
мере того как появляются новые наблюдения.Модель хорошо
работает
с временными последовательностями, в
которых мал интер-
вал
наблюдений, т.е. может быть получена
относительно длительная
временная
последовательность. По этой причине
модель может быть
использована
в областях, где нас интересуют
ежечасовые, ежеднев-
ные или
еженедельные наблюдения. Эти модели
также используются в
ситуациях,
когда необходимо анализировать небольшое число времен-
ных
последовательностей.
4. НЕЙРОННЫЕ СЕТИ ОСНОВАННЫЕ НА МЕТОДЕ
ОБРАТНОГО
ФУНКЦИОНИРОВАНИЯ
В данной
главе мы приводим детальное описание метода обрат-
ного
распространения - способа обучения многослойных НС. Подробно
описана НС для распознавания рукописных цифр и и
процесс ее обу-
чения.
В главе также проведена современная оценка метода обратно-
го
распространения.
4.1. Обучение нейронных сетей
Мы можем
научить трехслойную сеть решать определенную зада-
чу, пользуясь следующей процедурой. Сначала мы предъявляем сети
серию
тренировочных примеров, которые состоят
из паттерна актив-
ностей
входных элементов вместе с желаемым паттерном
активностей
выходных
элементов [8].
Предположим, что мы хотим научить сеть
распознавать рукопис-
ные
цифры. Можно воспользоваться матрицей,
из 256 сенсоров, каж-
дый из
которых регистрирует присутствие или отсутствие чернильно-
го пятнышка в пределах маленькой площадки -
фрагмента одной циф-
ры. Для сети,
таким образом, потребуется 256
входных элементов
(по
одному на каждый сенсор), 10 выходных элементов (по одному на
каждую
возможную цифру) и некоторое количество скрытых элементов.
Для
каждой цифры, регистрируемой сенсорами, сеть должна генериро-
вать
высокую активность в
соответствующем выходном элементе
и
низкую
в остальных выходных элементах.
Чтобы натренировать систему, мы предъявляем ей изображение
цифры и сравниваем действительную активность на 10
выходных эле-
ментах
с желаемой активностью. Затем мы
подсчитываем ошибку, оп-
ределяемую как
квадрат разности между действительным и желаемым
выходом. После этого мы изменяем вес каждой
связи, с тем чтобы
уменьшить ошибку.
Описанный процесс тренировки мы
повторяем со
многими
различными написаниями каждой цифры, пока сеть не научит-
ся
правильно распознавать все возможные изображения.
Чтобы реализовать эту процедуру, нам нужно изменять каждый
вес на
величину, пропорциональную скорости, с
которой изменяется
ошибка
по мере изменения веса [5]. Эта
величина (называемая про-
изводной
ошибки по весу и обозначаемая EW) вычисляется не просто.
Один из
способов вычисления EW заключается в том,
чтобы изменить
вес на
очень маленькую величину и посмотреть, как изменится ошиб-
ка. Однако этот метод не эффективен, поскольку
требует отдельных
вариаций
для каждого из многих весов.
4.2. Алгоритм обратного
распространения
4.2.1. Идея создания алгоритма обратного распространения
Примерно в 1974 году Поль Дж. Вербос
изобрел значительно бо-
лее
эффективную процедуру для вычисления EW,
когда работал над
своей
докторской диссертацией в Гарвардском университете. Проце-
дура, известная теперь как алгоритм обратного
распространением
(back
propagation algorithm), стала одним из наиболее важных инс-
трументов
в обучении нейронных сетей [5, 16, 27, 30, 42, 48, 49].
Алгоритм обратного распространением проще
всего понять, ког-
да все
элементы сети линейны. Алгоритм
вычисляет каждую EW, сна-
чала
вычисляя EA - скорость, с которой
изменяется ошибка при из-
менении
уровня активности элемента. Для выходных элементов EA яв-
ляется просто разностью между действительным и
желаемым выходом.
Чтобы
вычислить EA для скрытого элемента в слое,
непосредственно
предшествующем
выходному слою, мы сначала идентифицируем все веса
между
этим скрытым элементом и выходными элементами,
с которыми
соединен данный
скрытый элемент. Затем мы
умножаем эти веса на
величины
EA для этих выходных элементов и
складываем полученные
произведения.
Эта сумма и равна EA для данного скрытого элемента.
Вычислив
EA для всех элементов скрытого слоя,
прилегающего к вы-
ходному, мы можем аналогичным образом рассчитать EA и
для других
слоев,перемещаясь
в направлении, обратном тому направлению, в ко-
тором
активность нейронов распространяется по сети. Отсюда и наз-
вание
алгоритма обратного прослеживания (или обратного распрост-
ранения). После
того как значение
EA для элемента вычислено,
подсчитать
EW для каждой входной связи элемента уже несложно. Ве-
личина
EW является произведением EA и активности во входной цепи.
Для нелинейных элементов алгоритм
обратного распространением
включает дополнительный шаг. перед перемещением в обратном нап-
равлении
EA необходимо преобразовать в EI - скорость,
с которой
изменяется
ошибка по мере изменения суммарного входа элемента.
4.2.2. Описание НС и алгоритма обратного
распространения
Чтобы обучить нейронную сеть решению какой-либо задачи, мы
должны
подправлять веса каждого элемента таким
образом, чтобы
уменьшалась ошибка - расхождение между действительным и
желаемым
выходом. Для этого нужно, чтобы нейронная сеть вычисляла произ-
водную
от ошибки по весам (EW). Другими
словами, она должна вы-
числять, как изменяется ошибка при небольшом
увеличении или
уменьшении
каждого веса. Чаще всего для вычисления EW применяется
алгоритм
обратного распространением.
Чтобы реализовать этот алгоритм, мы сначала должны дать ма-
тематическое
описание нейронной сети. Предположим,
что элемент j
-
типичный элемент выходного слоя, а элемент i - типичный элемент
слоя, который предшествует выходному. Активность
элемента выход-
ного
слоя определяется двухшаговой процедурой. Сначала вычисляет-
ся
суммарный взвешенный вход Xj с помощью формулы
Xj = S (Yi * Wij), (4.1)
i
где Yi
- уровень активности i-го элемента в предшествующем слое и
Wij -
вес связи между i-м и j-м элементами.
Далее, элемент вычисляет активность Yj с
помощью некоторой
функции
от суммарного взвешенного входа. Обычно
применяется сиг-
ма-функция:
Yj = 1 / (1 +
e^(-Xj)). (4.2)
После того как активности всех выходных элементов определе-
ны,
сеть вычисляет ошибку , которая определяется выражением
E = 1/2 * S (Yj -
Dj)^2, (4.3)
j
где Yj
- уровень активности j-го элемента в верхнем слое, а Dj -
желаемый
выход j-го элемента.
Алгоритм обратного распространением
состоит из четырех ша-
гов.
1) Вычислить, насколько быстро меняется
ошибка при изменении
выходного элемента.
Эта производная ошибки (EA) есть разность
между
действительной и ожидаемой активностью.
dE
EAj = ДДДД = Yj - Dj. (4.4)
dYj
2) Вычислить, насколько быстро изменяется
ошибка по мере из-
менения
суммарного входа, получаемого выходным элементом. Эта ве-
личина
(EI) есть результат шага 1, умноженный на скорость измене-
ния
выходного элемента с изменением его суммарного входа.
dE dE dYj
EIj = = ДДД * ДДД = EIj Yj (1 - Yj). (4.5)
dXj dYj
dXj
3) Вычислить, как быстро изменяется
ошибка по мере изменения
веса на
входной связи выходного элемента. Эта
величина (EW) есть
результат
шага 2, умноженный на уровень
активности элемента, из
которого
исходит связь.
dE dE
dXj
EWij = ДДДД = ДДД * ДДД = EIj
Yi. (4.6)
dWij dXj
dXij
4) Вычислить, как быстро изменяется ошибка с изменением ак-
тивности
элемента из предыдущего слоя. Этот ключевой шаг позволя-
ет
применять обратное распространение к многослойным сетям. Когда
активность
элемента из предыдущего слоя изменяется, это влияет на
активности
всех выходных элементов, с которыми он
связан. Поэто-
му, чтобы подсчитать суммарное воздействие на
ошибку, мы склады-
ваем
все эти воздействия на выходные элементы. Но эти воздействия
нетрудно подсчитать.
Этот результат шага 2, умноженный на вес
связи к
соответствующему выходному элементу.
dE dE
dXj
EAi = ДДДД = S (ДДД * ДДД ) = S
(EIj Wij). (4.7)
dYi j
dXj dYij j
Пользуясь шагами 2 и 4, мы можем преобразовать величины EA
одного
слоя элементов в EA предыдущего слоя.
Эту процедуру можно
повторять, чтобы вычислять EA стольких предыдущих
слоев, сколько
их
есть. Зная EA для элемента, мы можем
воспользоваться шагами 2
и 3,
чтобы вычислить EW на его выходных связях.
4.2.3. Современная оценка алгоритма обратного распространения
На протяжении нескольких лет после его
изобретения алгоритм
обратного
распространением оставался почти незамеченным,
вероят-
но,
потому, что не был в должной мере оценен специалистами. В на-
чале
80-х годов Д. Румельхарт, работавший в то время в Калифор-
нийском
университете в Сан-Диего, и Д. Паркер из
Станфордского
университете независимо друг от друга вновь открыли
алгоритм. В
1986
году Румельхарт, Р. Уильямс, также из Калифорнийского уни-
верситета
в Сан-Диего, и Джеффери Е. Хинтон [5] продемонстрирова-
ли
способность алгоритма обучить
скрытые элементы вырабатывать
интересные
представления для сложных паттернов на входе и тем са-
мым
сделали его известным.
Алгоритм обратного распространения
оказался на удивление эф-
фективным
в обучении сетей со многими слоями
решению широкого
класса
задач [2, 5, 15]. Но более всего он
эффективен в ситуаци-
ях,
когда отношения между входом и выходом нелинейны, а количест-
во
обучающих данных велико. Применяя алгоритм, исследователи соз-
дали
нейронные сети, способные распознавать рукописные цифры,
предсказывать
изменения валютного курса и оптимизировать химичес-
кие
процессы. Они даже воспользовались
алгоритмом для обучения
сетей, которые идентифицируют переродившиеся
пред-раковые клетки
в
анализируемых образцах ткани и регулируют
положение зеркал в
телескопах,
чтобы исключить атмосферные искажения.
Р. Андерсен из Массачусетского
технологического института и
Д. Зипсер
из Калифорнийского университета в Сан-Диего показали,
что
алгоритм обратного распространения представляет собой весьма
эффективный
инструмент для понимания функций некоторых нейронов в
коре
головного мозга. Они научили нейронную
сеть реагировать на
зрительные
стимулы, применив алгоритм обратного
распространения.
Затем
они обнаружили, что реакция скрытых
элементов удивительно
схожа с
реакцией реальных нейронов,
выполняющих преобразование
зрительной
информации, поступающей от сетчатки, в
форму, необхо-
димую для
более глубоких областей мозга,
перерабатывающих зри-
тельную
информацию.
ВЫВОДЫ
Метод обратного распространения
достаточно хорош при созда-
нии
представлений о распознаваемом образе в скрытых элементах се-
ти.
Алгоритм обратного распространения показал эффективность про-
цедур обучения НС, в которых веса постепенно изменяются, чтобы
уменьшить
ошибки. Раньше многие ученые полагали, что подобные ме-
тоды
окажутся безнадежными, поскольку должны
неизбежно приводить
к
локально оптимальным, но в более широком масштабе ужасным реше-
ниям. Например, сеть для распознавания цифр может
устойчиво схо-
диться
к набору весов, при котором она будет путать единицы с се-
мерками, хотя существует набор весов, позволяющий различать эти
цифры
наряду с другими. Из-за опасений подобного рода распростра-
нилось убеждение,
что процедура обучения представляет интерес
только
в том случае, если она гарантирует
сходимость к глобально
оптимальному решению.
Метод обратного распространения
показал,
что для
многих задач глобальная сходимость не является
необходи-
мым
условием для того, чтобы достичь хороших результатов.
С другой стороны, с биологической точки зрения, как подобие
работы
головного мозга, метод обратного
распространения выглядит
не
очень убедительным. Наиболее очевидная трудность заключается в
том,
что информация должна проходить по тем же самым связям в об-
ратном
направлении, от каждого последующего уровня к предыдущему.
Ясно, что
этого не происходит в реальных нейронах. Однако этот
довод
на самом деле является довольно поверхностным.
В мозге су-
ществует
множество путей, ведущих от следующих слоев нервных кле-
ток к
предыдущим, и эти пути могут
использоваться многообразными
способами
для передачи информации, необходимой для обучения.
Более серьезную проблему
представляет собой быстродействие
алгоритма обратного распространения. Здесь центральным является
вопрос
о том, как быстро растет время,
необходимое для обучения,
по мере
возрастания размеров сети. Время,
требующееся для вычис-
ления
производных от ошибки по весам на заданном
тренировочном
примере, пропорционально размерам сети, поскольку
объем вычисле-
ний
пропорционален количеству весов. Однако
более крупные сети
требуют большего количества тренировочных
примеров, и им прихо-
дится
модифицировать веса большее число раз. Следовательно, время
обучения
растет значительно быстрее, чем размеры сети.
Самая серьезная проблема метода
обратного распространения
заключается
в том, что такая НС требует учителя, предоставляющего
желаемый
выход для каждого тренировочного примера.
В отличие от
этого человек
обучается большинству вещей без помощи учителя.
Никто
не дает нам детального описания внутренних
представлений
мира, которые мы должны научиться извлекать из
нашего сенсорного
входа.
Мы учимся понимать речь или зрительные сцены без каких-ли-
бо
прямых инструкций.
Если сеть сталкивается с большим набором
сочетаний сигналов,
но не
имеет никакой информации о том, что с
ними следует делать,
то,
очевидно, перед ней нет четко поставленной задачи. Тем не ме-
нее
исследователи разработали несколько универсальных, неконтро-
лируемых
процедур, которые могут правильно регулировать весовые
параметры
сети. Все эти процедуры имеют два общих
качества: они
оперируют, явно или неявно, с некоторым понятием
качества предс-
тавления
и работают, изменяя веса, чтобы повысить качество предс-
тавления,
вырабатываемого скрытыми элементами. Не смотря на отме-
ченные недостатки
применение метода обратного распространения в
целях
прогнозирования требований оправданно,
так как при прогно-
зировании
не возникает ситуации неопределенности действий, кото-
рые
необходимо проделать с информацией поступающей на вход НС.
5. ПРОГНОЗИРОВАНИЕ КУРСА UKB/USD
В данной главе описаны эксперименты по
прогнозированию курса
американского доллара
по отношению к
украинскому карбованцу
(UKB/USD). Сначала описаны задачи исследования и общая
структура
экспериментов. Далее описаны проделанные эксперименты, при этом
подробно
перечислены особенности каждого из них.
Для эксперимен-
тов, которые
показали удовлетворительные результаты
обучения
(сеть
распознала не менее 80% образов, на которых обучалась) в
приложениях приведены
таблицы с подробным описанием результатов
по
каждому образу, который распознавался.
5.1. Общий подход к прогнозированию курса UKB/USD
Исследования проводились на основе
модели сети с обратным
распространением
(подробнее смотри главу 3). Примененная методика
прогнозирования
подробно описана в главе 4.
Целью экспериментов было прогнозирование
курса UKB/USD. Для
достижения
данной цели было проведено исследование влияния предс-
тавления
исторических и прогнозируемых данных на ошибку прогнози-
рования. Также были рассмотрены вопросы влияния
структуры НС на
скорость
обучения сети и ошибку прогнозирования.
При этом стави-
лись
следующие задачи:
- поиск критериев прогнозирования;
- поиск оптимального представления исторических данных о
курсе;
- поиск оптимального представления
результата прогнозирова-
ния;
- поиск
оптимального размера окна;
- поиск
оптимальной структуры сети.
Прогнозирование курса UKB/USD проводилось на основе времен-
ной
последовательности ежедневных данных о курсе.
Такой подход к
прогнозированию
основан на идее американских экономистов, что для
прогнозирования
некоторых экономических показателей вполне доста-
точно
исследования истории их изменения. Успешное применение дан-
ного
подхода другими исследователями [7] для прогнозирования кур-
сов
DM/USD и SUR/USD позволяет надеяться на успех прогнозирования
UKB/USD.
Исходными данными для экспериментов
служили ежедневные изме-
рения курса
UKB/USD с 15.06.93 по 26.06.95
всего 842 измерений
(данные
взяты из архивов банка Porto-Franco). Прогнозировалось
среднее значение
курса за день (среднее
арифметическое дневных
курсов
покупки и продажи).
Каждый из экспериментов, можно разбить на
несколько этапов.
Первым этапом было формирование обучающей
выборки. На этом
этапе определяется вид представления исторических
и прогнозируе-
мых
данных и происходит формирование наборов, подаваемых на вход-
ные
нейроны и соответствующих им наборов снимаемых с выходов сети
(подробнее
смотри раздел 2.2.4). Большинство опытов прогнозирова-
ло не
фактический курс, а его относительное
изменение (ОИК). От-
носительное
изменение курса определяется по формуле
OIKt = (Kt+1 - Kt)/Kt (5.1)
Для
автоматизации процесса формирования обучающих выборок был ис-
пользован
пакет MS EXCEL 5.0.
Вторым этапом является обучение НС на
основе сформированной
на
первом этапе обучающей выборке. Качество обучения характеризо-
валось
ошибкой обучения, определяемой как
суммарное квадратичное
отклонение
значений на выходах НС в обучающей выборке от реальных
значений, полученных на выходах НС. Критерием
прекращения обуче-
ния
было прохождение сетью 1500 итераций или уменьшение ошибки на
выходах
сети на два порядка, по сравнению с
первичной ошибкой. В
том случае,
если при описании опыта не
указано, что произошло
снижение
ошибки на два порядка, обучение было остановлено по пер-
вому
критерию.
На третьем этапе проводилось тестирование
обучения сети. На
вход
подавалось порядка 4 - 5% наборов из обучающей выборки и оп-
ределялось
качество распознавания сети. Опыт считался
успешным
если относительная достоверность
распознавания образов была не
менее
80%.
На четвертом этапе проводилась симуляция
прогнозирования. На
вход
сети подавались наборы, которые не были
внесены в обучающую
выборку,
но результат по ним (прогноз) известен.
Результаты успешных опытов приведены в
приложениях 2.1-2.3.
Каждая
из таблиц приложений разделены на две части. В первой рас-
положены
результаты тестирования обучения, во второй - результаты
симуляции
прогнозирования. Первый столбец в таблице описания опы-
тов
содержит номер набора в тестовой или
симуляционной выборке.
Остальные
столбцы содержат результаты экспериментов.
В них может
находиться
знак *, или пара цифр. Энак * означает, что данный на-
бор
распознан правильно. Цифры в строке
обозначают, что при рас-
познавании
произошла ошибка. Первая цифра обозначает номер нейро-
на, который
соответствует фактическому
значению переменной, а
вторая
- фактическому.
5.2. Описание экспериментов
ЭКСПЕРИМЕНТ
1
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Данные подаются на
входы НС в виде
временной последовательности ежедневных измерений
фактического
курса
(в тысячах карбованцев).
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Выход
НС образует 17 классов
прогнозируемого
результата - курс с шагом от 5 до 25 тыс. крб.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 7:13:17 (количество входных нейронов : количество
нейронов
в скрытом слое : количество выходных нейронов).
РЕЗУЛЬТАТЫ:
Неудача. Не были распознаны образы на
которых обуча-
лась
сеть.
ЭКСПЕРИМЕНТ
2
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Данные подаются на
входы НС в виде
временной последовательности ежедневных измерений
нормированного
десятичного
логарифма относительного изменения курса в
процентах
(ОИК в
%).
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Выход
НС образует 20 классов
прогнозируемого
результата - нормированный
десятичный логарифма
ОИК в %
с шагом 0.05 и два класса, определяющих направление изме-
нения
курса - рост или падение (см. таблицу 5.1).
Таблица 5.1. Выходы НС
в
эксперименте 2.
ЪДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Номер
нейрона і Распознаваемый образ і
ГДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і Повышение курса і
2 і
Понижение курса і
3 і
от 0 до
0.05 і
4 і
от 0.05 до
0.10 і
. .. .
....... .
21 і
от 0.90 до
0.95 і
22 і
от 0.95 до
1.00 і
АДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 7:11:22
РЕЗУЛЬТАТЫ:
Неудача. Не были распознаны образы на
которых обуча-
лась
сеть.
В экспериментах с 3 по 8 были проделаны
попытки улучшить ка-
чество
результатов полученных в экспериментах 1 и 2.
Предполага-
лось, что этого можно добиться изменяя ширину
окна и
структуру
нейронной
сети (количество нейронов в скрытом слое).
Были прове-
дены
эксперименты со структурой сети 14:11:22, 21:11:22, 14:6:22,
21:6:22, 14:18:22, 21:18:22. Все эксперименты закончились
неуда-
чей -
не были распознаны образы на которых обучалась сеть.
ЭКСПЕРИМЕНТ
9
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Каждое измерение
подавалось на три
нейрона:
первые два определяли направление изменения курса - рост
или
падение, на третий подавался
нормированный десятичный лога-
рифм
ОИК в % с шагом 0.05.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Выход НС
образует 20 классов
прогнозируемого результата
- нормированный десятичный
логарифм
ОИК в
% с шагом 0.05 и два класса,
определяющих направление изме-
нения
курса - рост или падение (см. таблицу 5.1).
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 21:11:22
РЕЗУЛЬТАТЫ:
Неудача. Не были распознаны образы на
которых обуча-
лась
сеть.
В экспериментах с 10 по 13 продолжались
попытки улучшить ка-
чество
результатов. Предполагалось, что этого можно добиться на
основе
подхода описанного в эксперименте 9, изменяя ширину окна и
структуру нейронной
сети (количество нейронов в
скрытом слое).
Были проведены
эксперименты со структурой сети 42:11:22,
63:11:22,
42:18:22, 63:18:22. Все эксперименты закончились неуда-
чей -
не были распознаны образы на которых обучалась сеть.
Начиная с 14 эксперимента было предложено
работать при прог-
нозировании
со свернутым описанием исторических данных. Единичным
измерением при таком подходе считается описание периода
времени,
в
течении которого приращение исследуемой
переменной оставалось
постоянным.
Такой период описывается парой чисел. В это паре пер-
вое
число обозначает приращение переменной,
которое держалось в
течении некоторого периода, а второе - длительность периода, в
течении
которого удерживалось это приращение.
Далее рассматрива-
ются
различные варианты представления предложенного описания дан-
ных. Свертка описания исторических данных
проводилось на основе
временной
последовательности ОИК в % (интервал - один день).
ЭКСПЕРИМЕНТ
14.
Исследовалось
влияние числа прогнозируемых на одной НС переменных
на
достоверность прогнозирования. Прогнозирование значения и дли-
тельности
приращения проводилось на двух различных сетях. Окно на
входе НС
организовано из пар,
описывающих промежуток времени
(приращение,
длительность).
ЭКСПЕРИМЕНТ
14.1. Прогнозирование значения приращения
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: ОИК в % кластеризуется и подается
на
входы НС в соответствии с данными из таблицы 5.2. Время клас-
теризуется и
подается на входы НС в соответствии с данными из
таблицы
5.3.
Таблица 5.2. Интервалы кластеризации
и соответствующая им кодировка входов
для данных по ОИК.
Эксперимент 14.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал кластеризации,% і Код,
подаваемый на вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
менее - 10 і - 100 і
от - 9.99 до - 2.41 і - 10 і
от - 2.40 до - 0.01 і - 1 і
0 і
0 і
от 0.01 до 2.40 і 1
от 2.41 до 9.99 і 10
от 10 и более і 100 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
Таблица 5.3. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по
времени. Эксперимент 14.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал
кластеризации,дниі Код, подаваемый на
вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і
0 і
от 2 до 3 і 1
от 4 до 7 і 10
от 8 и более і 100 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.2.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:10:7
РЕЗУЛЬТАТЫ:
Сеть распознала 80 % образов, на которых обучалась.
Было
получено 33.3 % правильных прогнозов. Результаты приведены в
приложении
2.1.
ЭКСПЕРИМЕНТ
14.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными
в таблице 5.3.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:9:4
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых обучалась,
было
получено 66.7 % правильных прогнозов. Результаты приведены в
приложении
2.1.
ЭКСПЕРИМЕНТ
15
Исследовалось
влияние числа прогнозируемых на одной НС переменных
на
достоверность прогнозирования. Прогнозирование значения и дли-
тельности
приращения проводилось на одной сети.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном
классе приращения в соответствии с интервалами клас-
теризации
приведенными в таблице 5.2. и о
распознанном классе
промежутка времени
в соответствии с интервалами кластеризации
приведенными
в таблице 5.3.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:12:11
РЕЗУЛЬТАТЫ:
Сеть распознала 70% образов,
на которых обучалась,
было
получено 14.3% правильных прогнозов. По сравнению с экспери-
ментом
14, результаты ухудшились на 30 - 40%.
Значительно увели-
чилось
число "соседних" ошибок и нечеткость в распознавании обра-
зов.
Результаты приведены в приложении 2.1.
ЭКСПЕРИМЕНТ
16
Исследовалось
влияние расположения групп
описания исторических
данных
(приращение и длительность) на входах НС. Организованы ок-
но
приращений и окно длительности,
подаваемые на входы НС после-
довательно.
ЭКСПЕРИМЕНТ
16.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 14.1.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:10:7
РЕЗУЛЬТАТЫ:
Сеть распознала 80 % образов, на которых обучалась.
Было
получено 42.9 % правильных прогнозов. Результаты приведены в
приложении
2.1.
ЭКСПЕРИМЕНТ
16.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 14.2.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:9:4
РЕЗУЛЬТАТЫ:
Сеть распознала 90% образов,
на которых обучалась.
Было
получено 42.9% правильных прогнозов.
Результаты приведены в
приложении
2.1.
ЭКСПЕРИМЕНТ
17
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 16
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 15
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:10:11
РЕЗУЛЬТАТЫ:
Сеть распознала 70 % образов, на которых она обуча-
лась, было получено 14.3 % правильных прогнозов. По сравнению с
экспериментом
16, результаты ухудшились на 20 - 35%.
Значительно
увеличилось число "соседних" ошибок и
нечеткость в распознавании
образов.
Результаты приведены в приложении 2.1.
ЭКСПЕРИМЕНТ
18
Дальнейшая
работа с НС из эксперимента 14
показала, что классы,
кодируемые
10 и 100 (-10 и -100) были неразличимы.
Фактически -
сеть работала
с 5 классами приращения и 3 классами длительности
приращения.
Для повышения точности представления данных, кодиров-
ка
классов была изменена.
ЭКСПЕРИМЕНТ
18.1. Прогнозирование значения приращения
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: ОИК в % кластеризуется и подается
на
входы НС в соответствии с данными из таблицы 5.4. Время клас-
теризуется
и подается на входы НС в
соответствии с данными
из
таблицы
5.5.
Таблица 5.4. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по ОИК.
Эксперимент 18.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал кластеризации,% і Код, подаваемый
на вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
менее - 10 і - 3 і
от - 9.99 до - 2.41 і - 2
от - 2.40 до - 0.01 і - 1
0 і
0 і
от 0.01 до 2.40 і 1
от 2.41 до 9.99 і 2
от 10 и более і 3
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
Таблица 5.5. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по
времени. Эксперимент 18.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал
кластеризации,дниі Код, подаваемый на
вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1
0 і
от 2 до 3 і 1
от 4 до 7 і 2
от 8 и более і 3 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.4.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:10:7
РЕЗУЛЬТАТЫ:
Сеть распознала 90 % образов, на которых обучалась,
было
получено 42.9 % правильных прогнозов. Результаты приведены в
приложении
2.1.
ЭКСПЕРИМЕНТ
18.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 18.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными
в таблице 5.5.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:9:4.
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых обучалась.
Было
получено 47.6 % правильных прогнозов. Результаты приведены в
приложении
2.1.
В
экспериментах с 19 по 33 проводился подбор оптимального размера
окна.
Результаты экспериментов с 19 по 21 приведены ниже и в при-
ложениях.
Результаты экспериментов с 22 по 33 отображены только в
выводах
по результатам экспериментов в конце главы.
ЭКСПЕРИМЕНТ
19
ЭКСПЕРИМЕНТ
19.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 14.1.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:17:7
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых она обуча-
лась, было получено 42.9 % правильных прогнозов.
Результаты при-
ведены
в приложении 2.2.
ЭКСПЕРИМЕНТ
19.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 14.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 14.2.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:16:4.
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых обучалась,
было
получено 57.1 % правильных прогнозов. Результаты приведены в
приложении
2.2.
ЭКСПЕРИМЕНТ
20
ЭКСПЕРИМЕНТ
20.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 16.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 16.1.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:17:7.
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых обучалась,
было получено 50% правильных прогнозов.
Результаты приведены в
приложении
2.2.
ЭКСПЕРИМЕНТ
20.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 16.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 16.2.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:16:4.
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых обучалась,
было
получено 78 % правильных
прогнозов. Результаты приведены в
приложении
2.2.
ЭКСПЕРИМЕНТ
21
ЭКСПЕРИМЕНТ
21.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 18.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 18.1.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:17:7.
РЕЗУЛЬТАТЫ:
Сеть распознала 90 % образов, на которых обучалась,
было
получено 50 % правильных
прогнозов. Результаты приведены в
приложении
2.2.
ЭКСПЕРИМЕНТ
21.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 18.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 18.2.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:16:4.
РЕЗУЛЬТАТЫ:
Сеть распознала 100 % образов, на
которых она обуча-
лась, было получено 64.3 % правильных прогнозов.
Результаты при-
ведены
в приложении 2.2.
На
основании 33 экспериментов для прогнозирования был выбран сле-
дующий подход:
прогнозирование производится на
основе периодов
стабильности
ОИК в %; величина и длительность
приращения прогно-
зируются
на разных НС; оптимальный размер окна
14; окна величины
и
длительности приращения подаются на входы
НС последовательно.
Начиная
с эксперимента 34 мы исследовали влияние интервалов клас-
теризации
и вида кодирования на достоверность прогнозирования.
ЭКСПЕРИМЕНТ
34
На вход
НС подаются пары (значение, длительность).
ЭКСПЕРИМЕНТ
34.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: ОИК в % кластеризуется и подается
на
входы НС в соответствии с данными из таблицы 5.6. Время клас-
теризуется и
подается на входы НС в соответствии с данными из
таблицы
5.7.
Таблица 5.6. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по ОИК.
Эксперимент 34.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал кластеризации,% і Код,
подаваемый на вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
больше 13 і 3 і
от 12.99 до 10 і 2
от 9.99 до 5 і 1.6
от 4.99 до 2 і 0.75
от 1.99 до 1 і 0.5
от 0.99 до 0.01 і 0.3 і
0 і
0 і
от - 0.01 до - 1.49 і -0.3
от - 1.5 до - 2.99 і -0.5
от - 3 до - 4.99 і -0.75
от - 5 до - 7.99 і -1.6
от - 8 и меньше і -2 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
Таблица 5.7. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по
времени. Эксперимент 34.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал
кластеризации,дниі Код, подаваемый на
вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і - 0.75 і
2 і -
0.5 і
3 і -
0.235 і
4 і
0 і
от 5 до 8 і 0.235
от 9 до 14 і 0.5
от 15 до 19 і 0.75
от 21 и дольше і 1.6 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.4.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:13:12.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых она обуча-
лась, было получено 64 % правильных прогнозов,
результаты приве-
дены
жены в приложении 2.2.
ЭКСПЕРИМЕНТ
34.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 34.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными
в таблице 5.5.
РАЗМЕР
ОКНА: 7
СТРУКТУРА СЕТИ: 14:11:8.
РЕЗУЛЬТАТЫ:
сеть распознала 70 % образов, на которых она обуча-
лась, было получено 35.7 % правильных прогнозов,
результаты при-
ведены
в приложении 2.2.
ЭКСПЕРИМЕНТ
35
Окна
величины и длительности приращения подаются на входы НС пос-
ледовательно.
ЭКСПЕРИМЕНТ
35.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 34.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 34.1.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:13:12.
РЕЗУЛЬТАТЫ:
сеть распознала 80 % образов, на которых она обуча-
лась, было получено 50 % правильных прогнозов,
результаты приве-
дены в
приложении 2.2.
ЭКСПЕРИМЕНТ
35.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 34.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: Как в эксперименте 34.2.
РАЗМЕР
ОКНА: 7
СТРУКТУРА
СЕТИ: 14:11:8.
РЕЗУЛЬТАТЫ:
сеть распознала 70 % образов, на которых обучалась,
было
получено 42.9 % правильных прогнозов, результаты приведены в
приложении
2.2.
ЭКСПЕРИМЕНТ
36
На вход
НС подаются пары (значение, длительность).
ЭКСПЕРИМЕНТ
36.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: ОИК в % кластеризуется и подается
на
входы НС в соответствии с данными из таблицы 5.8. Время клас-
теризуется и
подается на входы НС в соответствии с данными из
таблицы
5.9.
Таблица 5.8. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по ОИК.
Эксперимент 36.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал кластеризации,% і Код,
подаваемый на вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
больше 6.1 і 6 і
от 6 до 2.51 і 1.6
от 2.5 до 0.01 і 0.7
0 і
0 і
от -
0.01 до - 1.5 і - 0.7 і
от -
1.51 до - 3.5 і - 1.6 і
от -
3.51 и меньше і -
6 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
Таблица 5.9. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по
времени. Эксперимент 36.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал
кластеризации,дниі Код, подаваемый на
вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і
6 і
2 і
1.6 і
3 і
0.7 і
4 і
0 і
от 5 до 7 і - 0.7
от 8 до 14 і - 1.6
от 15 и дольше і - 6 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.8.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:17:7.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых она обуча-
лась, было получено 52.6 % правильных прогнозов.
Результаты при-
ведены
в приложении 2.3.
ЭКСПЕРИМЕНТ
36.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 36.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.9.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:17:7.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых она обуча-
лась, было получено 47.4 % правильных прогнозов.
Результаты при-
ведены
в приложении 2.3.
ЭКСПЕРИМЕНТ
37
Окна
величины и длительности приращения подаются на входы НС пос-
ледовательно.
ЭКСПЕРИМЕНТ
37.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: ОИК в % кластеризуется и подается
на
входы НС в соответствии с данными из таблицы 5.8. Время клас-
теризуется и
подается на входы НС в соответствии с данными из
таблицы
5.10.
Таблица 5.10. Интервалы кластеризации
и соответствующая
им кодировка входов
для данных по
времени. Эксперимент 37.
ЪДДДДДДДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Интервал
кластеризации,дниі Код, подаваемый на
вход нейрона і
ГДДДДДДДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
от 1 до 2 і 6
і
от 3 до 4 і 1.1
от 5 до 7 і 0
от 8 до 14 і - 1.1
от 15 и больше і - 6 і
АДДДДДДДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными в
таблице 5.8.
РАЗМЕР ОКНА:
14
СТРУКТУРА
СЕТИ: 28:17:7.
РЕЗУЛЬТАТЫ:
сеть распознала 90 % образов, на которых она обуча-
лась, было получено 47.4 % правильных прогнозов,
результаты при-
ведены
в приложении 2.3.
ЭКСПЕРИМЕНТ
37.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 37.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С выхода НС
снимались данные о
распознанном классе
в соответствии с интервалами
кластеризации
приведенными
в таблице 5.5.
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:16:5.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых обучалась,
было
получено 36.8 % правильных прогнозов. Результаты приведены в
приложении
2.3.
ЭКСПЕРИМЕНТ
38
На вход
НС подаются пары (значение, длительность).
ЭКСПЕРИМЕНТ
38.1. Прогнозирование значения приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 36.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными
в таблице 5.11.
Таблица 5.11. Выходы НС
в
эксперименте 38.1
ЪДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Номер
нейрона і Распознаваемый образ, % приращения і
ГДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і
10 і
2 і
9 і
. .. .
.. .
20 і
- 9 і
21 і -
10 і
АДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:24:21.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых обучалась,
было
получено 47.4 % правильных
прогнозов. На данной сети было
выполнено прогнозирование на 3 месяца. Результаты приведены в
приложении
2.3.
ЭКСПЕРИМЕНТ
38.2. Прогнозирование длительности приращения.
ОПИСАНИЕ
ИСТОРИЧЕСКИХ ДАННЫХ: Как в эксперименте 36.1.
ОПИСАНИЕ
ПРОГНОЗИРУЕМЫХ ДАННЫХ: С
выхода НС снимались данные о
распознанном
классе в соответствии с интервалами
кластеризации
приведенными
в таблице 5.12.
Таблица 5.12. Выходы НС
в
эксперименте 38.2
ЪДДДДДДДДДДДДДДДДДДДДВДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДї
Номер
нейрона і Распознаваемый образ, дни і
ГДДДДДДДДДДДДДДДДДДДДЕДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДґ
1 і
15 и дольше і
2 і
14 і
. .. .
.. .
14 і
2 і
15 і
1 і
АДДДДДДДДДДДДДДДДДДДДБДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДЩ
РАЗМЕР
ОКНА: 14
СТРУКТУРА
СЕТИ: 28:21:15.
РЕЗУЛЬТАТЫ:
сеть распознала 100 % образов, на
которых обучалась,
было
получено 52.6 % правильных
прогнозов. На данной сети было
выполнено прогнозирование на 3 месяца. Результаты приведены в
приложении
2.3.
ВЫВОДЫ
Прогнозирование с помощью
НС курса UKB/USD показало эффек-
тивность
предлагаемого подхода. Наилучшие
результаты при симуля-
ции
прогнозирования были получены в последнем эксперименте данной
серии, что позволяет надеяться на серьезное повышение
точности
прогнозирования.
Исследовалась модель прогнозирования на основе временной
последовательности.
Первые 13 экспериментов закончились неудачей.
В
экспериментах с 14 по 35 мы повышали точность прогнозирования в
основном
за счет изменения структуры сети.
Эксперименты показали
точность
прогнозирования порядка 32%, при 20%
"соседних" ошибок.
На
основании этих экспериментов была выбрана оптимальная структу-
ра
сети, размер окна и тип представления данных (эксперименты 36,
37, 38). Значительное число "соседних"
ошибок позволяет повысить
точность
прогнозирования за счет выделения и распознавания боль-
шего
числа классов (например, каждый класс -
это изменение пере-
менной
в пределах 1%). При таком разбиении "соседняя" ошибка даст
максимальную
реальную ошибку 2%. Эксперименты также показали, что
повышение
чувствительности при описании входных данных подаваемых
на НС,
приводит к повышению точности прогнозирования. При симуля-
ции
прогнозирования приращения курса
была достигнута достовер-
ность
порядка 48% (максимальная ошибка 2%) и
при прогнозировании
длительности
приращения - 52% (при максимальной
ошибке 3 дня).
Однако
такое качество прогнозирования достигнуто только для одно-
шагового
прогнозирования. Для реализации
многошагового прогнози-
рования
необходимо применение других моделей
и/или изменения пе-
риода
прогнозирования. Не смотря на данный недостаток и необходи-
мость
дальнейшего тестирования и исследований, можно сказать, что
на
основе предложенной модели возможно создание
реального прог-
раммного продукта
прогнозирующего курсы валют даже в условиях
нестабильного
состояния современной украинской экономики.
- -
ВМДР 90415 - 01 81 01-1
6.ЭКОНОМИЧЕСКИЕ МЕТОДИКИ ВАЛЮТНОГО
ПРОГНОЗИРОВАНИЯ
Мировая практика выработала два основных
подхода к прогно-
зированию
динамики валютного курса - фундаментальный и техничес-
кий.
Фундаментальный подход связан с
построением моделей, отра-
жающих
зависимость курса от набора курсообразующих факторов. Од-
нако на
деле подобные прогнозы часто не оправдываются,
особенно
в
кратко- и среднесрочных аспектах, наиболее важных для бизнеса.
Ненадежность связана
с тем, что сами величины
курсообразующих
факторов
зачастую приходится прогнозировать, а
это придает шат-
кость
всей экономико-математической конструкции.
Поэтому практики больше склонны применять
технический под-
ход, базирующийся на предположении, что сама
форма кривой изме-
нения
курса может служить ключом к его будущему поведению. Осо-
бое
внимание при этом уделяется повторяемости определенных фигур
и
изломов.
В данной работе я описал один из способов
валютного прогно-
зирования
- метод циклического прогнозирования, позволяющий син-
тезировать
оба подхода и адаптировать их к нашим условиям. Глав-
ная его
идея состоит в том, что любая, даже
самая несовершенная
экономика, благодаря рыночному курообразованию обладает
способ-
ность
восстанавливать равновесие, нарушаемое
кредитно-денежными
эмиссиями. В основе этой способности лежит тенденция к
устойчи-
вости
реальной денежной массы, т.е. хотя бы
частичное приближе-
ние ее
к исходному уровню в течение определенного периода, обра-
зующего
денежный цикл.
- -
ВМДР 90415 - 01 81 01-1
Характер цикла определяется степенью нарушения равновесия,
связанной
с объемом эмиссий. Относительно
небольшому увеличению
денежной
массы (до 30 %) соответствует малый денежный цикл, за-
нимающий
2 - 3 месяца. Большой цикл длится
около полугода. Но
дело не
только в продолжительности, но и в том, что их механизмы
существенно
различаются.
В основе
этого различия лежит
двойственность реальной де-
нежной
массы. С точки зрения национальной экономики реальная де-
нежная
масса равна дефлированной номинальной,
т.е. общему коли-
честву
наличных и безналичных денег, деленному
на индекс инфля-
ции. Со
стороны валютных отношений реальная денежная масса соот-
ветствует
номинальной, деленной на индекс изменения курса нацио-
нальной денежной
единицы. В странах с сильной
"долларизацией"
экономики
(к ним, безусловно, относится и Украина) вторая сторо-
на
реальной денежной массы приобретает весьма существенное внут-
риэкономическое
значение.
Это проявляется, прежде всего, в ходе малого цикла. Он на-
чинается
с относительно небольшого усиления
кредитно-денежной
эмиссии, когда средний дневной прирост денежной массы
не превы-
шает
0.5 процента от ее объема. Примерно
через три недели новые
деньги поступают на валютный рынок, вызывая постепенный подъем
курса
доллара (на 150 % - в марте-апреле 1993 г., на 130 % в ап-
реле-мае
1994 г.). Курс с небольшими колебаниями
растет в сред-
нем до
величины, соответствующей приросту
номинальной денежной
массы
минус индекс инфляции за этот период.
Пройдя в
значительной мере через
доллар, имитированные
деньги втягиваются
в обычный хозяйственный кругооборот и,
как
- -
ВМДР 90415 - 01 81 01-1
показывает
кривая инфляции, не столько
увеличивают ее темп,
сколько
замедляют его падение, происходящее после предшествовав-
шего
большого цикла (включающего в себя
инфляционный всплеск).
Поэтому
восстановление дефлированного показателя реальной денеж-
ной
массы на практике почти не ощущается.
По мере того, как движение новых денег
через валютный рынок
затихает,
спрос на доллары несколько сокращается. Это может выз-
вать
его кратковременное падение (например,
в июне 1994 г. - на
116
%). Снижение курса доллара расширяет
реальную денежную мас-
су, сжатую его предыдущим ростом. Она приближается к исходному
уровню, существовавшему на начало цикла, после чего
наступает
кратковременная
стабилизация.
Таким образом, зная размеры эмиссии, мы
можем с достаточной
степенью
достоверности определить направление,
сроки и величину
предстоящего
изменения валютного курса.
Если бы эмиссия проводилась равномерно на
протяжении финан-
сового
года, денежных циклов могло бы не
быть. Их истоки в не-
равномерном, дискретном характере эмиссии. В данном случае ис-
точником
характерного для весны малого цикла
является неравно-
мерность
"посевной" эмиссии, после
которой устанавливается "за-
тишье", продолжающееся до августа (1994 г.) или середины
июля
(1993
г.). Оно прерывается "урожайной" эмиссией, знаменующей на-
чало
большого денежного цикла.
Механизм большого цикла основан на
взаимодействии процессов
изменения
курса доллара, инфляции и изменения
депозитного про-
цента. Вначале, так же как и при малом цикле,
резкий рост номи-
нальной
денежной массы вызывает нарастающее повышение курса дол-
- -
ВМДР 90415 - 01 81 01-1
лара. Но
сразу вслед за этим разворачивается еще более сильная
инфляция, перекрывающая это повышение. Ее
интенсивность опреде-
ляется давлением
на рыночные цены с двух сторон - и со стороны
цен
предложения, и со стороны цен спроса.
Сильная эмиссия превышает
потребности оборота в деньгах,
сложившиеся
при достигнутом ранее балансе цен.
Новые деньги,
расширяя
спрос, увеличивают те цены, которые покупатели теперь
готовы
заплатить за товары и услуги.
Для анализа этих процессов используется не только кривая
инфляции,
но и такие аналитические инструменты, как линии спроса
и предложения. Линия спроса D показывает зависимость спроса от
цены. Поскольку при повышении цен спрос падает,
линия спроса
имеет вид
нисходящей кривой. Но и
предложение тоже зависит от
цены.
Эта зависимость выражается линией предложения S, представ-
ленной восходящей
кривой, поскольку повышение цен
стимулирует
рост
предложения. Имея такую форму, линии спроса и предложения
неизбежно пересекаются. В точке пересечения E
устанавливается
рыночное
равновесие, означающее равенство спроса
и предложения.
Рыночная
цена, при которой это достигается,
является ценой рав-
новесия.
Интенсивная эмиссия выводит рынок из состояния равновесия.
На
графике повышение цен спроса отражается сдвигом линии спроса
D
вправо из положения Do в положение D1.
С другой стороны, де-
вальвация
карбованца увеличивает цены
предложения сначала им-
портных, а
затем и отечественных товаров.
Например, рост цен
энергоносителей
усиливает так называемую инфляцию издержек.
Это
отражается
на графике смещением линии предложения S вверх из по-
- -
ВМДР 90415 - 01 81 01-1
ложения
So в положение S1. В результате, при неизменном физичес-
ком
объеме товарооборота Q, рыночные цены повышаются с уровня Po
до
уровня P1. Компьютерное моделирование этих процессов позволя-
ет рассчитывать интенсивность инфляции в зависимости от объема
эмиссии.
Темп инфляции имеет существенно важное значение для валют-
ного
прогнозирования по нескольким причинам,
связанным с выпол-
нением деньгами
двух основных функций - средства обращения и
средства
сбережения (сохранения стоимости).
Инфляция увеличивает потребность в
карбованцах прежде всего
для
осуществления сделок и
соответственно несколько сокращает
спрос
на доллары. Поскольку для удовлетворения
этой потребности
начинают
"сбрасываться" доллары,
увеличивается рыночное предло-
жение последних.
Тем самым относительное сокращение спроса и
рост
предложения долларов способствуют снижению или стабилизации
валютного
курса.
Но этим влияние инфляции не
ограничено. Примерно через два
месяца после
начала гиперинфляции наступает перелом в динамике
дипозитного
процента, и в дальнейшем процент
следует за измене-
нием
индекса инфляции. В свою очередь рост
депозитного процента
увеличивает
склонность к сбережениям в карбованцах и относитель-
но
сокращает спрос на доллары для сбережения, оказывая сдержива-
ющее
воздействие на валютный курс.
Правда, сейчай это воздействие
значительно слабее, чем было
раньше, в силу пошатнувшегося доверия к банкам, не
говоря уже о
трастах и
страховых компаниях. Поэтому с
конца 1994 г. более
ощутимой
становится не зависимость валютного курса от депозитно-
- -
ВМДР 90415 - 01 81 01-1
го
процента, а, напротив, зависимость
процента от динамики кур-
са. Так,
снижение и стабилизация курса,
начавшиеся с ноября
прошлого
года, внесли свою лепту в наступивший
через три недели
аналогичный
перелом в динамике депозитного процента.
Таким образом, несмотря на всю
сложность взаимодействия
факторов,
определяющих динамику курса, вполне реально проследить
их
причинно-следственную зависимость и учесть ее при прогнозиро-
вании
не только малого, но и большого денежного цикла. Тем более
что в
основе и того, и другого лежит, по
существу, одно и то же
явление
- устойчивость реальной денежной массы.
Главное различие между ними состоит в
том, что в рамках ма-
лого
цикла восстанавливается валютный показатель реальной денеж-
ной
массы, в то время как сложный цикл
восстанавливает и дефли-
рованный
показатель. Более того, восстановление дефлированного
показателя
в силу описанного выше взаимодействия цен предложения
и цен
спроса происходит интенсивней, чем
валютного. В целом за
период
большого цикла рост валютного курса, несмотря на свою ин-
тенсивность, отстает от инфляции, и тем более - от роста номи-
нальной
денежной массы.
Одна из причин этого состоит в том, что ставшая уже тради-
ционной
осенняя гиперинфляция, повышая спрос на карбованцы, тор-
мозит
тем самым дальнейший рост курса и дополняется
инфляцией
доллара. К
этому же времени дает о себе знать сокращение эмис-
сии, происходящее обычно к концу октября - началу
ноября. Кроме
того, под
впечатлением гиперинфляции правительство и Нацбанк
каждый
год принимают в ноябре-декабре еще
и сдерживающие меры
административного
характера, демонстрируя в этой области немалую
- -
ВМДР 90415 - 01 81 01-1
изобретательность. Если добавить к этому увеличение спроса
на
карбованцы, связанное с окончанием хозяйственного года,
то ста-
нет
совершенно очевидной закономерность
стабилизации валютного
курса, завершающей
денежный цикл. Недооценка этой
цикличности
стала
одной из причин краха трастовых
и страховых компаний,
рассчитывавших на
более равномерный рост доллара,
и именно по
этой
причине многие фирмы зимой 1993-94 года оказались в тяжелом
положении. Кроме того,
в циклическом анализе необходимо обяза-
тельно
учитывать новые веяния в монетарной политике государства.
Очевидна,
например, направленность нынешней весенней валютно-фи-
нансовой
политики на сглаживание "посевного" цикла и стабилиза-
цию
курса карбованца. Поэтому, предполагая,
что соответствующим
должностным
лицам уже более или менее известен механизм денежно-
го
цикла, легче предугадать поведение правительства и Нацбанка.
СОДЕРЖАНИЕ
стр.
ВВЕДЕНИЕ...................................................... 4
1.
ПРОГНОЗИРУЮЩИЕ СИСТЕМЫ. СОСТОЯНИЕ ПРОБЛЕМЫ
1.1. Прогноз и цели его
использования...................... 6
1.2. Основные понятия и определения
проблемы
прогнозирования....................................... 9
1.3. Методы
прогнозирования................................ 10
1.4. Модели временных последовательностей..................
15
1.5. Критерии
производительности........................... 17
ВЫВОДЫ........................................................
18
2.
НЕЙРОННЫЕ СЕТИ. СОСТОЯНИЕ ПРОБЛЕМЫ
2.1. Нейронные сети - основные понятия и
определения....... 21
2.2. Модели нейронных
сетей................................ 22
2.2.1. Модель
Маккалоха............................... 22
2.2.2. Модель
Розенблата.............................. 23
2.2.3. Модель
Хопфилда................................ 24
2.2.4. Модель сети с обратным
распространением........ 26
2.3. Задачи, решаемые на основе нейронных
сетей............ 27
2.4. Способы реализации нейронных
сетей.................... 29
ВЫВОДЫ........................................................
30
3.
ПРОГНОЗИРОВАНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ
3.1. Общий подход к прогнозированию с
помощью нейронных
сетей................................................. 33
3.2. Применение нейронных сетей в
финансовой сфере......... 35
ВЫВОДЫ........................................................
39
4.
НЕЙРОННЫЕ СЕТИ ОСНОВАННЫЕ НА МЕТОДЕ ОБРАТНОГО
ФУНКЦИОНИРОВАНИЯ
4.1. Обучение нейронных
сетей.............................. 41
4.2. Алгоритм обратного
распространения.................... 42
4.2.1. Идея создания алгоритма
обратного
распространения................................ 42
4.2.2. Описание НС и алгоритма
обратного
распространениея............................... 42
4.2.3. Современная оценка алгоритма
обратного
распространения................................ 44
ВЫВОДЫ........................................................
45
5.
ПРОГНОЗИРОВАНИЕ КУРСА UKB/USD
5.1. Общий подход к прогнозированию курса UKB/USD......... 48
5.2. Описание
экспериментов................................ 50
ВЫВОДЫ........................................................
64
ЗАКЛЮЧЕНИЕ....................................................
66
ЛИТЕРАТУРА....................................................
67
- 3 -
ПРИЛОЖЕНИЯ
ПРИЛОЖЕНИЕ
1. Еженедельные продажи режущего инструмента....... 70
ПРИЛОЖЕНИЕ
2.1 Результаты экспериментов 14-18................. 71
ПРИЛОЖЕНИЕ
2.2 Результаты экспериментов 19-21,34,35........... 72
ПРИЛОЖЕНИЕ
2.3 Результаты экспериментов 36-38................. 73
ПРИЛОЖЕНИЕ
3. Результаты прогноза UKB/USD..................... 74
ПРИЛОЖЕНИЯ
ПРИЛОЖЕНИЕ 1. Еженедельные продажи режущего
инструмента
(100 наблюдений, читать сверху вниз,
слева направо)
ДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДДД
100
101 115 125
137
94
100 122 126
138
90
102 118 129
140
96
110 120 132
139
91
104 116 131
131
94
110 118 130
129
95
113 119 133
134
99
112 118 134
133
95 113 120
133 133
98
120 123 135
134
100
121 124 138
132
97
118 123 137
126
99
123 121 140
130
98
124 126 138
131
96
123 128 144
130
98
129 124 135
133
96
125 122 138
132
99
119 123 137
129
97
118 119 136
135
98
120 120 136
136
ПРИЛОЖЕНИЕ 2.1 Результаты
экспериментов 14-18
ЪДДВДДДДДДДДДДДВДДДДДДДДДВДДДДДДДДДДДВДДДДДДДДДВДДДДДДДДДДДї
N і
Эксп-т 14 іЭксп-т 15і Эксп-т 16 іЭксп-т 17і Эксп-т 18 і
наГДДДДДВДДДДДґ ГДДДДДВДДДДДґ ГДДДДДВДДДДДґ
боіпри-еідл-тьі іпри-еідл-тьі іпри-еідл-тьі
раі
14.1і 14.2і і 16.1і 16.2і і 18.1і 18.2і
ГДДЕДДДДДЕДДДДДЕДДДДДДДДДЕДДДДДЕДДДДДЕДДДДДДДДДЕДДДДДЕДДДДДґ
1і *
* і * і
* і * і *
* і * і
2і *
* і * і
* і * і 10-11
* і * і
3і *
* і 10-11 і
* і * і *
* і * і
4і *
* і * і
* і * і *
* і * і
5і *
* і * і
* і * і *
* і * і
6і *
* і * і
* і * і *
* і * і
7і *
* і * і * і 4-3 і *
* і * і
8і
2-4 і * і 2-4 і 2-4 і
* і2-4,10-11і 2-4 і * і
9і
6-5 і * і 6-5 і 6-4 і
* і 6-4 і *
* і
10і *
* і * і
* і * і *
* і * і
11і
5-3 і * і 5-3 і 5-2 і
* і 5-3 і *
* і
12і
1-3 і 4-3 і1-4,11-10і 1-4 і 4-3 і
1-4 і 1-3 і 4-3 і
13і *
* і * і
* і 4-3 і 2-5
* і * і
14і * і
3-4 і 10-11 і 4-2 і 3-4 і 10-11 і
* і 3-4 і
15і * і
4-3 і 11-10 і * і 4-3 і
* і 2-3 і * і
16і
3-4 і * і 3-1 і 3-4 і 4-3 і 3-4 і 3-4 і * і
17і
4-3 і 2-4 і4-3, 9-11і * і 2-4 і4-3, 9-11і * і 2-4 і
18і
3-4 і * і3-2,11-10і * і * і3-2,11-10і 3-2 і 4-3 і
19і
4-3 і * і 4-3 і 4-3 і 3-4 і4-3,10-11і 4-3 і * і
20і
5-2 і 3-4 і5-2,10-11і 5-2 і 3-4 і5-4,10-11і 5-3 і 3-4 і
21і
3-4 і * і 4-3 і 4-3 і
* і 11-9 і 4-3 і 4-3 і
22і
3-5 і * і 5-2 і 5-2 і 4-3 і 5-4 і 5-4 і 4-3 і
23і *
* і * і
* і 4-3 і *
* і 4-3 і
24і * і
4-3 і5-4,11-10і * і * і
* і * і * і
25і
4-3 і * і4-3,11-10і * і * і
11-10 і 4-3 і * і
26і
5-4 і * і 5-4 і 5-4 і
* і 5-4 і 5-4 і * і
27і * і
4-3 і4-3,11-10і * і * і4-3,11-10і
* і 4-3 і
28і 5-4
*
5-4,11-10і 5-4 і * і5-4,11-9 і 5-4 і 4-2 і
29і
4-3 і * і4-3,10-11і 4-3 і 3-4 і
4-3 і 4-3 і 3-4 і
30і
5-4 і * і5-4,11-10і * і * і5-4,11-10і
* і * і
31і *
* і * і 3-4 і 3-4 і3-4,10-11і *
* і
АДДБДДДДДБДДДДДБДДДДДДДДДБДДДДДБДДДДДБДДДДДДДДДБДДДДДБДДДДДЩ
ПРИЛОЖЕНИЕ 2.2 Результаты
экспериментов 19-21,34,35
ЪДДВДДДДДДДДДДДВДДДДДДДДДДДВДДДДДДДДДДДВДДДДДДДДДДДВДДДДДДДДДДДї
N і
Эксп-т 19 і Эксп-т 20 і Эксп-т 21 і Эксп-т 34 і Эксп-т 35 і
наГДДДДДВДДДДДЕДДДДДВДДДДДЕДДДДДВДДДДДЕДДДДДВДДДДДЕДДДДДВДДДДДґ
боіпри-еідл-тьіпри-еідл-тьіпри-еідл-тьіпри-еідл-тьіпри-еідл-тьі
раі
19.1і 19.2і 20.1і 20.2і 21.1і 21.2і 34.1і 34.2і 35.1і 35.2і
ГДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДґ
1і *
* і * і
* і 2-4 і *
* і * і
* і * і
2і *
* і * і
* і * і *
* і * і
* і * і
3і *
* і * і
* і * і *
* і 3-1 і * і 3-1 і
4і *
* і * і
* і * і *
* і * і 5-6 і
* і
5і *
* і * і
* і * і *
* і * і
* і * і
6і *
* і * і
* і * і *
* і 2-1 і * і 2-1 і
7і *
* і * і
* і * і *
* і 3-1 і 7-5 і 3-1 і
8і *
* і * і
* і * і *
* і * і
* і * і
9і *
* і * і
* і * і *
* і * і
* і * і
10і *
* і * і
* і * і *
* і * і
* і * і
11і
3-2 і * і 3-4 і * і 3-2 і
* і * і 5-1 і * і
5-1 і
12і
4-1 і 3-4 і 4-3 і * і 4-3 і 3-4 і * і * і
7-5 і * і
13і
5-4 і * і 5-3 і * і 5-4 і
* і * і 1-3 і *
* і
14і
4-3 і * і * і
* і 4-3 і *
* і 4-1 і * і 4-1 і
15і * і
4-3 і 4-2 і * і 5-3 і * і
* і * і *
* і
16і
4-3 і * і * і
* і * і *
* і * і
* і * і
17і * і
4-3 і * і * і
* і * і 8-6 і 3-1 і 8-7 і 3-1
18і *
* і * і
* і 4-3 і *
* і 2-1 і 5-6 і 2-1 і
19і * і
3-4 і * і 3-4 і * і 3-4 і
* і * і *
* і
20і
4-3 і * і 4-5 і 4-3 і * і 4-3 і 4-5 і * і 4-7 і * і
21і
5-4 і * і 5-6 і * і * і
* і 5-6 і 3-1 і 5-6 і 3-1 і
22і * і
3-4 і * і * і
* і 3-4 і 6-5 і 2-1 і 6-5 і 2-1
23і *
* і * і
* і * і *
* і 2-1 і * і 2-1 і
24і
3-2 і 3-4 і 3-4 і 3-4 і 5-4 і 3-2 і
* і 5-1 і 5-6 і 5-1 і
АДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДЩ
ПРИЛОЖЕНИЕ 2.3 Результаты
экспериментов 36-38
ЪДДВДДДДДДДДДДДВДДДДДДДДДДДВДДДДДДДДДДДї
N і
Эксп-т 36 і Эксп-т 37 і Эксп-т 38 і
наГДДДДДВДДДДДЕДДДДДВДДДДДЕДДДДДВДДДДДґ
боіпри-еідл-тьіпри-еідл-тьіпри-еідл-тьі
раі
36.1і 36.2і 37.1і 37.2і 38.1і 38.2і
ГДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДЕДДДДДґ
1і *
* і * і
* і * і * і
2і *
* і * і
* і * і * і
3і *
* і * і
* і * і * і
4і *
* і * і
* і * і * і
5і *
* і 3-4 і * і
* і * і
6і *
* і * і
* і * і * і
7і *
* і * і
* і * і * і
8і *
* і * і
* і * і * і
9і *
* і * і
* і * і * і
10і *
* і * і
* і * і * і
11і *
* і * і 1-2 і
* і * і
12і
4-3 і 2-1 і 4-3 і 1-2 і10-9 і14-15і
13і
3-4 і 3-2 і * і 2-1 і 9-7 і13-15і
14і *
* і * і
* і * і * і
15і *
* і * і 1-2 і
* і * і
16і *
* і 4-5 і 1-2 і * і
* і
17і * і
5-1 і * і 3-2 і10-11і10-15і
18і *
* і 3-4 і 1-2 і 9-11і * і
19і * і
1-5 і 4-2 і 1-2 і * і15-13і
20і * і
4-1 і * і 2-1 і10-9 і12-15і
21і *
* і * і
* і * і * і
22і
3-4 і * і 3-4 і * і 9-11і12-13і
23і
5-3 і 2-1 і * і * і11-10і
* і
24і
3-1 і 1-4 і 3-4 і 1-2 і * і15-14і
25і
6-2 і * і 6-5 і * і12-10і
* і
26і
5-4 і * і 5-4 і * і10-8 і
* і
27і * і
2-1 і * і * і10-12і14-15і
28і
3-6 і 2-1 і 3-6 і 1-2 і * і
* і
29і
5-4 і 5-1 і 5-6 і 3-1 і * і10-15і
АДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДБДДДДДЩ
ВВЕДЕНИЕ
Целью данной работы является разработка
методов прогнозиро-
вания
основанных на нейронных сетях (НС), которые может быть ис-
пользованы
в прогнозирующих системах. На основе этих методов воз-
можно
предсказание значения переменных, важных в процессе приня-
тия
решений. Эти методы анализируют исторические данные о пере-
менной
с целью оценить ее будущее изменение.
Для достижения указанной цели необходимо
решить следующие
задачи:
- провести анализ проблемы
прогнозирования;
- провести сравнительный анализ известных моделей НС;
- выбрать модель, обеспечивающую
эффективное решение задачи
прогнозирования;
- провести исследование предложенной
модели;
- реализовать тестовый пример для
выбранной модели.
Основное содержание работы:
Во введении сформулирована цель и
основные задачи исследова-
ния,
изложены основные положения разделов работы.
В первой главе мы обсуждаем некоторые
общие аспекты разра-
ботки
прогнозирующих систем: понятие
прогноза и цели
его ис-
пользования,
основные понятия и определения в области прогнозиро-
вания,
методы прогнозирования, модели временных последовательнос-
тей,
критерии производительности прогнозирующих систем и другие
общие
вопросы касающиеся разработки прогнозирующих систем.
Во второй главе мы обсуждаем известные
модели НС: модель
Маккалоха
и Питтса; модель Розенблата; модели Хопфилда и Больцма-
на; модель
на основе обратного
распространения. Рассмотрена
структура
и особенности каждой из моделей.
Перечислены основные
задачи
решаемые на основе НС, описаны способы реализации НС. Про-
веден
анализ известных моделей НС с точки зрения решения решения
задачи
прогнозирования.
В третьей главе описан способ
прогнозирования с помощью НС,
основанный
на методе окон. Также приведен обзор применения НС в
финансовой
сфере.
В четвертой главе мы приводим детальное
описание метода об-
ратного
распространения - способа обучения многослойных НС. Под-
робно
описана НС для распознавания рукописных цифр и и процесс ее
обучения.
В главе также проведена современная оценка
метода об-
ратного
распространения.
В пятой главе описаны эксперименты по
прогнозированию курса
американского доллара
по отношению к
украинскому карбованцу
(UKB/USD).
Сначала описаны задачи исследования и общая
структура
экспериментов.
Далее описаны проделанные эксперименты,
при этом
подробно
перечислены особенности каждого из них. Для
эксперимен-
тов, которые
показали удовлетворительные результаты
обучения
(сеть
распознала не менее 80% образов, на
которых обучалась) в
приложениях
приведены таблицы с подробным
описанием результатов
по
каждому образу, который распознавался.
Завершается работа заключением, в
котором сделаны основные
теоретические
и практические выводы, указана перспектива дальней-
ших
исследований, а также приведены список использованной литера-
туры и
приложения.
- -
ЗАКЛЮЧЕНИЕ
В данной работе разработан ряд методов
прогнозирования осно-
ванных
на нейронных сетях (НС), которые могут быть использованы в
прогнозирующих
системах. На основе этих методов возможно предска-
зание
значения переменных, важных в процессе принятия решений.
В работе обсуждены аспекты разработки
прогнозирующих систем:
понятие
прогноза и цели его использования, основные понятия и оп-
ределения
в области прогнозирования, методы
прогнозирования, мо-
дели
временных последовательностей,
критерии производительности
прогнозирующих
систем и другие общие вопросы касающиеся разработ-
ки
прогнозирующих систем, На основании
анализа известных моделей
НС:
модели Маккалоха и Питтса; модели Розенблата; модели Хопфилда
и
Больцмана; модели на основе обратного распространения, для реа-
лизации прогнозирующей системы было предложено
применение модели
на
основе обратного распространения. Предложен способ прогнозиро-
вания с
помощью НС, основанный на методе окон. Также приведен об-
зор
применения НС в финансовой сфере,
показывающий эффективность
применения
НС для прогнозирования.
Разработан тестовый пример для
предложенного метода на осно-
вании прогнозирования курса USD/UKB. Проведенные в данной пред-
метной
области эксперименты показали высокую точность прогнозиро-
вания.
На основании проделанных экспериментов возможно построение
программного
продукта для прогнозирования курсов валют даже в ус-
ловиях
нестабильного состояния современной украинской экономики.
В целом мы считаем результаты работы тем
базисом на основа-
нии которого
возможно построение универсального прогнозирующего
комплекса,
являющегося составной частью общей системы управления.
- -
ЛИТЕРАТУРА 1. Aбу-Мустафа Я.С., ПсаЃEис Д. ОЃEичесЃEЃEыDйрЃEыM-сетевыЃE
ЃEЃEЃEтеры//В ЃEре ъьукЃE 1987. N 5. С.
42-50. 2. БарцеЃEС.И. НекъCъAые свьHства адаптивных сетеЃE (ЃEьB-
раЃEъья реализацЃE).- КраснЃEрсЃE
ИыPтитуЃEфизиЃE СО АН СССР, -
1987. 3. БарцеЃEС.И., ОхоыGЃEВ.А. АдаЃEивыZЃEсети ь@работкЃEин-
формации.
- КраснЃEрсЃE ИыPтитуЃEфизиЃE СО АН СССР, 1986. 4. ГьJЃEев А.Д. ЯркъBтнЃE сегментация изь@ражеыGя
ЃEЃEЃEЃE-
щи ыDйръ@ьCь@ыMЃEсети.//АвтьKатикЃE- 1965 - N 5 - ЃE 40-50. 5. Джеффри Е. ХинтоЃE Как ь@учЃEтся ыDйрЃEыZЃEсети.// В ЃE-
ре ъьукЃE-
1992 - N 11 - N 12 - c. 103-107. 6. ИваыVенЃE А.Г. ПерсеЃEроЃE- системЃEраспьFъьваыGя ь@ра-
зоЃE// К.: НауЃEва дуЃEЃE 1972. 7. Картавцев В.В. НейроыLЃE сеть ЃEедсказываеЃEЃEрс доЃEЃE
ра?// КьKЃEютеры + ЃEьBраЃEЃE- 1993 - N 6(7) - ЃE 10-13. 8. КуссуЃE В.М., БайдыЃEТ.Н. РазработкЃEархитеЃEурЃEыDйрЃE
ЃEдобньH сети для распьFъьваыGя формЃE ь@ъеЃEьA ъь изь@раже-
ыGЃE//АвтьKатикЃE- 1990 - N 5 - ЃE 56-61. 9. МакЃEЃEЃEДЃE, Питтс У. ЛьBичесЃEЃEисчисленЃE идей,
ъCыM-
ЃEщихся ЃEыDрвыMЃEдеятеЃEыMстЃE// АвтьKатЃE М.: ИЛ, 1956. 10. МасальAич А.И. ОЃEыDйрЃEЃEЃE ыDйрьIьKЃEютеру.// ЖуръьЃE
доЃEъAЃEДь@ба - 1992 - N 1 - ЃE 20-23. 11. Минский М., ПейЃEрт С. ПерсеЃEроыZ. М.: МИР, 1971. С.
261. 12. РьFенблат Ф. АъьЃEтические ЃEтоды изученЃE ыDйрЃEыZЃEсе-
теЃE// Зарубежъья радиЃEЃEЃEроыGЃE. - 1965 - N 5 - ЃE 40-50. 13. РьFенблат Ф. ПриыUипЃEыDйрьCинамикЃE// М.: МИР, 1965. 14. СьIьJьA Е.Н., ВайтнявичуЃEГ.Г. НейроинтеЃEекЃE ъC ыDйрЃE
ъь ЃEыDйрьIьKЃEютеру.- М.: НауЃE, 1989. С.
283. 15. СувъAьA С.В., МатихинЃEН.Ю. ПрограмЃEьD
ЃEдеЃEроваыGЃE
ыDйръ@ьCь@ыZЃE струЃEур.//РасЃEеделенъья ь@работкЃE информации.-
УЃEЃEУде,
1989, - ЃE 28. 16. ТриЃEЃEД.В. НейроыLые сети: ЃEЃEэто деЃEетЃE?// КьKЃE-
ютеры + ЃEьBраЃEЃE- 1993 - N 4(5) - ЃE 14-20. 17. ТэыI Д.У., Хъ@фиЃE Д.Д. КьJЃEЃEивыZЃEвычисленя ЃEыDйрЃE
ыMЃEдобных эЃEЃEроыLых схемах.//В ЃEре ъьукЃE 1988. N 2. С.
44-53. 18. ЦуприЃEЃE С. НейроыLые вычисленЃE берутся ъь воъAужение
фиъьыPистаЃE.// Computerworld - Moscow - 1985 - N 7 - ЃE 57-58.
- - 19. ЧерткьA М., ГриЃEЃEЃEА. МетьCикЃEваЃEтньBЃEЃEьBыMзирова-
ыGя.// ОдессЃEЃEдеЃEвыЃEыMвостЃE- 1995 - ЃEЃEN 16 - ЃE 4. 20. Aarts
E.H.L., Korst J.H.M. Boltzmann
machines and their
applications//Lect. Notes Comput. Sci. 1987. V. 258. P. 34-50. 21. Aarts
E.H.L., Korst J.H.M. Boltzmann machines for tra-
velling salesman problem//European J.
Oper. Res. 1989. V. 39. P.
79-95. 22.
Abu-Mostafa Y.S., Jaques J.N.St. Information capacity of
the Hopfield model//IEEE Trans.
Inform. Theory. 1985. V.
31. P.
461. 23. Ackley
D.H., Hinton G.E., Sejnowski T.J.
A learning al-
gorithm for Bolzmann machines//Cognit. Sci. 1985. V.
9. N 1. P.
147-169. 24. Amari
S. Field theory of self-organizing neural net-
works//IEEE Trans. Syst., Man, Cybern. 1983. V. 13. P. 741. 25.
Artificial Intelligence. // Amsterdam: Time - Life - Bo-
oks, 1986. 26. Athale
R., Stirk C.W. Compact architectures for adaptive
neuraal nets//Ibid. 1989. V. 28. N 4. 27. Bardcev
S.I., Okhonin V.A. The algorithm of dual functi-
oning (back-propagation):
general approach, vesions and applica-
tions. Krasnojarsk: Inst. of biophysics SB AS USSA - 1989. 28.
Carpenter G.A., Grossberg S. A massively parallel archi-
tecture for a self-organizing neural pattern recognition
machi-
ne.//Comput. Vision Graphics Image Process. 1986. V. 37. p.
54-115. 29.
Cohen M.A., Grossberg S. Absolute stability of global
pattern formation and parallel memory storage by competitive neu-
ral networks//IEEE Trans.
Syst., Man, Cybern. 1983.
V. 13. N 5.
P. 815-826. 30.
Computing with neural circuits: a model.//Science, 1986.
V. 233. p. 625-633. 31. Cross
Michael. Brain ware hits Japanese computers.// New
Sci. - 1988 - 120, # 1640 - p. 33. 32.
Dayhoff J. Neural network
architectures.//New-York:Van
Nostrand reinhold, 1991. 33. Fogelman Soulie F.
Neural networks, state of
the art,
neural computing.// London: IBC Technical Services, 1991.
- - 34. Fox
G.C., Koller J.G. Code generation by a generalized
neural networks: general
principles and elementary examples.//J.
Parallel Distributed Comput. 1989. V. 6. N 2. P. 388-410. 35.
Hecht-Nielsen R. Neurocomputing:
picking the human bra-
in.// IEEE SPECTRUM 1988 - V. 25. N 3 - p. 36-41. 36. Hebb
D.O. The organization of
behaviour. N.Y.: Wiley,
1949. 37.
Hopfield J.J. Neural networks and
physical systems with
emergent collective computational abilities.//Proc. Natl. Acad.
Sci. 1984. V. 9. p. 147-169. 38.
Hopfield J.J., Tank D.W. Neural
computation of decision
in optimization
problems.//Biol. Cybernet. 1985. V. 52. p. 39.
Hopfield J.J., Feinstein
D.I., Palmer F.G. Unlearning
has a stabilizing effect in collective memories//Nature. 1983. V.
304. P. 141-152. 40.
Hopfield J.J., Tank D.W. Neural
computation of decision
in optimization problems//Biol. Cybernet. 1985. V. 52. P.
141-152. 41. Jeffery
W., Rosner R. Neural network processing as a to-
ol for friction optimization.//Neuronet Comput. Conf., Snowbird,
Utah, Apr. 13-16, 1986. New York, N.Y., 1986 - p. 241-246. 42.
Kuzewski Robert M., Myers Michael
H., Grawford William
J. Exploration of fourword error propagation as self organization
structure.//IEEE Ist. Int.
Conf. Neural Networks, San Diego, Ca-
lif., June 21-24, 1987. V. 2. - San
Diego, Calif., 1987. - p.
89-95. 43.
Lippmonn Richard P. Gold Ben Neuronet classifiers useful
for speech recognition.// IEEE Ist.
Conf. Neural Networks, San
Diego, (Calif), 1987 - p. 417-425. 44.
Montgomery, Douglas C. Forecasting
and time series ana-
lysis./Douglas C.
Montgomery, Lynwood A. Johnson, John S. Gard
iner. - 2nd ed. - ISBN 0-07-042858-1. 45.
Neural Computing.// London: IBE
Technical Services,
1991. 46.
Rosenblatt F. The peseptron: a probabilistic model for
information storage and organization in the brain//Psychol. Rev.
1958. V. 65. P. 386.
- - 47.
Rosenblatt F. Principles of neurodynamics.
Spartan.,
Washington, D.C., 1962. 48.
Rumelhart B.E., Minton G.E., Williams R.J. Learning rep-
resentations by back propagating error.// Wature, 1986. V. 323.
p. 1016-1028. 49.
Takefuji D.Y. A new model of neural networks for
error
correction.//Proc. 9th Annu
Conf. IEEE Eng. Med. and Biol. Soc.,
Boston, Mass., Nov. 13-16,
1987. V. 3, New York, N.Y., 1987 - p.
1709-1710. 50.
Treliven P. Neurocomputers.//
London: University colle-
ge, 1989.
|
|
|