Поиск

Полнотекстовый поиск:
Где искать:
везде
только в названии
только в тексте
Выводить:
описание
слова в тексте
только заголовок

Рекомендуем ознакомиться

'Закон'
Стороны настоящей Конвенции, будучи глубоко озабочены масштабами и тенденцией роста незаконного производства, спроса и оборота наркотических средств ...полностью>>
'Документ'
День заповедников и национальных парков (отмечается с1997 года по инициативе Центра охраны дикой природы, Всемирного фонда дикой природы в честь перв...полностью>>
'Документ'
1. Настоящее Положение разработано в соответствии с законами Республики Узбекистан "О связи", "О телекоммуникациях", "О лице...полностью>>
'Закон'
о соблюдении прав и свобод человека и гражданина на территории Амурской области и деятельности уполномоченного по правам человека в Амурской области в...полностью>>

2 Альтернативы прогнозированию

Главная > Документ
Сохрани ссылку в одной из сетей:

12) Модели сглаживания с трендом: модели Холта и Брауна.

Хольт - усовершенствованный метод экспоненциального сглаживания. Значения уровня и тренда сглаживаются с помощью экспоненциального сглаживания. Причем параметры сглаживания у них различны.

Здесь первое уравнение описывает сглаженный ряд общего уровня.
Второе уравнение служит для оценки тренда.
Третье уравнение определяет прогноз на p отсчетов по времени вперед.

Частным случаем метода Хольта является метод Брауна, когда a=ß.

Модель Холта

, p – просто число

и - выбираются как показатели точности. Обычно в зависимости от точности предыдущих прогнозов (чем больше средняя или ещё какая-нить ошибка, тем больше эти параметры).

Для нахождения L мы можем применять обратное прогнозирование.бычно в зависимости от точности предыдущих прогнозов (чем больше средняя или еще какая-нить

Модель Брауна

13) Модели сглаживания с трендом и сезонностью: модель Винтерса.

расширение метода Хольта до трехпараметрического экспоненциального сглаживания. + попытка учесть сезонные составляющие в данных. Система уравнений, описывающих метод Винтерса выглядит следующим образом:

Дробь в первом уравнении служит для исключения сезонности из Y(t). После исключения сезонности алгоритм работает с "чистыми" данными, в которых нет сезонных колебаний. Появляются они уже в самом финальном прогнозе, когда "чистый" прогноз, посчитанный почти по методу Хольта умножается на сезонный коэффициент.

Модель Винтерса

14) Определение начальных условий модели сглаживания.

15) Статистические показатели модели простой линейной регрессии.

(заметки) Для линейного регрессионного анализа требуется линейность только по параметрам, поскольку нелинейность по переменным может быть устранена с помощью изменения определений. Стандартная ошибка коэффициента множественной регрессии является оценкой стандартного отклонения распределения коэффициента регрессии вокруг его истинного значения. Используют стандартизованные регрессионные коэффициенты, т.е. прежде, чем строить модель, все Х стандартизуются, следовательно, все коэффициенты становятся сравнимы между собой. Плюс – меряют силу влияния, минус – не решают задачу содержательного смысла. МНК работает даже в случае равномерного распределения точек. Проверка гипотез: нулевая – данная прямая не берет на себя нисколько дисперсии исходных точек (прямой регрессии нет, нет влияния Х на Y), общая – есть совокупное влияние Х на Y. Значимость: вероятность того, что коэффициенты регрессии равны нулю, вероятность принятия нулевой гипотезы.

Рассмотрим реализацию линейной регрессии в SPSS.

Статистика

регрессионные коэффициенты (regression coefficients)

  • оценки (estimates) – включает регрессионные коэффициенты и связанные с ними меры.

  • доверительные интервалы (confidence intervals) – 95% доверительные интервалы для регрессионных коэффициентов.

  • ковариационная матрица (covariance matrix) – ковариационная и корреляционная матрицы. В ковариационной матрице на диагонали – дисперсия.

остатки (residuals)

  • тест Дарбина-Уотсона (Durbin-Watson) - тест для последовательных корреляций остатков, а также суммарная статистика для остатков и предсказанных значений. Если значение статистики равно 2, то третье условие Гаусса-Маркова не нарушается. Если <2, то имеет место положительная автокорреляция – бич временных рядов, если >2 – то отрицательная автокорреляция.

  • диагностика (casewise diagnostic) – «выбросы» за n стандартных отклонений.

разное

  • качество модели (model fit) – коэффициент множественной корреляции R, коэффициент детерминации (ранее рассматривался в качестве основного индикатора успеха в спецификации модели, но признание того факта, что даже плохая модель может дать высокий коэффициент детерминации, привело к снижению значимости коэффициента), скорректированный R-квадрат (коэффициент детерминации при добавлении объясняющей переменной никогда не уменьшается, скорректированный коэффициент обеспечивает компенсацию для такого автоматического сдвига вверх путем наложения «штрафа» за увеличение числа независимых переменных, увеличение скорректированного коэффициента при добавлении новой переменной не обязательно означает, что ее коэффициент значимо отличается от нуля), стандартная ошибка, ANOVA – число степеней свободы, сумма квадратов, средний квадрат, F-значение, ожидаемая вероятность F. F-статистика используется для проверки нулевой гипотезы о том. что добавляемая переменная не дает значительного прироста R-квадрата. t-статистика проверяет гипотезу: нет линейной связи между зависимой и независимыми переменными, или что коэффициенты регрессии равны нулю.

  • изменение коэффициента детерминации (R squared change) – изменение в R квадрате при добавлении и извлечении из модели независимых переменных. Если изменение, связанное с переменной большое, то переменная хорошо вписывается в модель.

  • описательная статистика (descriptives) – средние, стандартное отклонение, корреляционная матрица.

  • частная и частичная корреляция (part and partial correlation)

  • диагностика коллинеарности (collinearity diagnostic) – стойкость отдельных переменных и статистики для определения проблем с коллинеарностью. Коллинеарность – нежелательная ситуация, когда одна независимая переменная в модели является линейной функцией других независимых переменных. Собственные числа (eigenvalues) – показывают, сколько существует независимых векторов в пространстве. Если существует собственное значение очень близкое к нулю, то имеет место зависимость. Поэтому небольшие изменения в данных могут привести к большим изменениям в оценках регрессионных коэффициентов. Индекс состояния (condition index) – квадратный корень из отношения большего собственного числа к последующему. Если больше 15, то возможны проблемы с коллинеарностью, если больше 30 – то очень большие проблемы с коллинеарностью. Пропорция дисперсии (variance proportion) – пропорция дисперсии оценки, объясненная каждой компонентой, связанной с каждым собственным значением. Коллинеарность – проблема, когда компонента, связанная с большим индексом состояния, вносит существенный вклад в дисперсию двух или более переменных.

Сохранение

предсказанные значения (predicted values)

  • нестандартизованные (unstandardized) – значение, предсказанное моделью для зависимой переменной.

  • стандартизованные (standardized) – преобразование предсказанного значения в стандартную форму (минус математическое ожидание, поделить на стандартное отклонение).

  • скорректированные (adjusted) – предсказанное значение для данного случая, когда этот случай исключался из вычисления регрессионных коэффициентов.

  • стандартная ошибка средних предсказаний (S.E. of mean predictions) – оценка стандартного отклонения от среднего значения зависимой переменной для случаев, которые имеют одинаковое значение независимых переменных.

расстояния (distances)

  • расстояние Махаланобиса (Mahalonobis) – мера отличия независимых переменных от среднего по всем случаям. Если значение очень большое, то имеет место случай с экстремальными значениями каких-то независимых переменных.

  • расстояние Кука (Cook’s) – мера того, как сильно остатки для всех случаев изменятся, если отдельный случай исключить из вычисления регрессионных коэффициентов.

  • (leverage value) – мера влияния точки на качество модели. Изменяется от нуля (нет влияния) до (N-1)/N.

предсказанные интервалы (prediction intervals)

  • средние (mean) – верхняя и нижняя границы для предсказанного интервала среднего предсказания отклика.

  • индивидуальные (individual) – верхняя и нижняя границы интервала зависимой переменной для отдельного случая.

остатки (residuals)

  • нестандартизованные (unstandardized)

  • стандартизованные (standardized)

  • стьюдентизованные (studentized) – остатки, деленные на оценку стандартного отклонения, которая отличается от случая к случаю, в зависимости от расстояния значений независимых переменных от среднего по независимым переменным.

  • удаленные (deleted) – остатки, когда случай был удален при вычислении регрессионных коэффициентов. Разница между значением зависимой переменной и скорректированным предсказанным значением.

  • стьюдентизованные удаленные (studentized deleted) – удаленные остатки, деленные на стандартную ошибку.

статистика влияния (influence statistics)

  • изменение значений бета (DfBeta(s)) – изменение в регрессионных коэффициентах из-за удаления отдельного случая при вычислении регрессионных коэффициентов. Считается для всех параметров, включая константу.

  • стандартизованное изменение значений бета (standardized DfBeta(s))

  • изменение качества модели (DfFit) – изменение в качестве модели из-за удаления отдельного случая при вычислении регрессионных коэффициентов.

  • стандартизованное изменение качества модели (standardized DfFit)

  • ковариационное отношение (covariance ratio) – отношение определителя ковариационной матрицы, полученной при удалении отдельного случая при вычислении регрессионных коэффициентов, к определителю матрицы со всеми случаями. Если отношение близко к единице, то случай не сильно меняет ковариационную матрицу.

Есть метки включения константы в уравнение, задание критических значений F-статистики, различные графики.

16) Вывод формул коэффициентов зависимости в линейной регрессии.

17) Проверка гипотезы о независимости наблюдаемых переменных.

Простая регрессия

Есть 2 набора величин (Х и У) и нужно установить, имеется ли связь между этими величинами.

; ;

Точное равенство означает, что =1

При исследовании корреляционных зависимостей между признаками решению подлежит широкий круг вопросов, к которым следует отнести :

1)Предварительный анализ свойств моделируемой совокупности единиц;

2)Установление факта наличия связи, определение её формы и направления;

3)Измерение степени тесноты связи между признаками;

4)Построение регрессивной модели, т.е. нахождение аналитического выражения связи;

5)Оценка адекватности модели, её экономическая интерпретация и практическое использование.

Для того, чтобы результаты корреляционного анализа нашли практическое применение и дали желаемый результат, должны выполняться определённые требования

1.Требование однородности тех единиц, которые подвергаются изучению.

2.Количественная оценка однородности исследуемой совокупности по комплексу признаков (расчет относительных показателей вариации, коэффициент вариации, отношение размаха вариации к среднему квадратическому отклонению).

3.Достаточное число наблюдений.

4.Исследуемая совокупность должна иметь нормальное распределение.

5.Факторы должны иметь количественное выражение.

2.2.Статистические методы выявления наличия корреляционной связи между двумя признаками

Простейшим приёмом обнаружения связи является сопоставление двух параллельных рядов – ряда значений признака-фактора и соответствующих ему значений результативного признака. Значение факторного признака располагается в возрастающем порядке и затем прослеживается направление изменения величины результативного признака. Результативный признак (функция) обозначается через y, а факторный признак через x.

Ниже приведён пример обнаружения корреляционной связи между стажем.

Наличие большого числа различных значений результирующего признака затрудняет восприятие таких параллельных рядов. В таких случаях целесообразнее воспользоваться для установления факта наличия связи корреляционной таблицей. Корреляционная таблица позволяет изложить материал сжато, компактно и наглядно.

Построение корреляционной таблицы начинают с группировки значений фактического и результативного признаков. В первый столбик следует вписать значения факторного признака (x), а первую строку заполнить значениями результативного признака (y). Числа, полученные на пересечении строк и столбцов, означают частоту повторения данного сочетания значений x и y.

Данная корреляционная таблица уже при общем знакомстве даёт возможность выдвинуть предположение о наличии или отсутствии связи, а также выяснить её направление, Если частоты расположены по диагонали из верхнего левого угла в правый нижний, то связь между признаками прямая. Если же частоты расположены по диагонали справа налево, - то связь обратная. В данном случае можно предположить наличие прямой связи.

Корреляционная зависимость чётко обнаруживается только при рассмотрении средних значений результативного признака, соответствующих определённым значениям факторного признака, т.к. при достаточно большом числе наблюдений в каждой группе влияние прочих случайных факторов будет взаимопогашаться, и чётче выступит зависимость результирующего признака от фактора, положенного в основу группировки.

Для предварительного выявления наличия связи и раскрытия её характера, применяют графический метод. Используя данные об индивидуальных значениях признака-фактора и соответствующих ему значениях результативного признака, строится в прямоугольных координатах точечный график, который называют «полем корреляции». Для данного примера поле корреляции имеет следующий вид ( см. рис. 2.1).
[pic]

Точки корреляционного поля не лежат на одной линии, они вытянуты определённой полосой слева на право. Нанеся средние значения факторного и результирующего признаков на график и соединяя последовательно отрезками прямых соответствующие им точки, получают эмпирическую линию связи.

Если эмпирическая линия связи по своему виду приближается к прямой линии, то это свидетельствует о наличии прямолинейной корреляционной связи между признаками. Если же имеется тенденция неравномерного изменения значений результирующего признака, и эмпирическая линия связи будет приближаться к какой-либо кривой, то это может быть связано с наличием криволинейной корреляционной связи.

2.3. Множественная корреляция

Проведенный выше анализ статистических совокупностей позволяет изучить взаимосвязь только двух переменных.

На практике же часто приходится исследовать зависимость результирующего признака от нескольких факторных признаков. В этом случае статистическая модель может быть представлена уравнением регрессии с несколькими переменными. Такая регрессия называется множественной
(множественная корреляция).

Например, линейная регрессия с m независимыми переменными имеет вид: yi = a0x0 + a1x1 + a2x2 + … + amxm,

(2.1) где а0, а1, а2, …, аm – параметры уравнения регрессии,

m – число независимых переменных, х0, х1, х2, …, хm – значения факторного признака, yi – значение результирующего признака.

При оценке параметров этого уравнения в каждом i-том наблюдении фиксируют значения результирующего признака у и факторных признаков хi0…хim.

Оценки параметров уравнения регрессии находятся с помощью метода наименьших квадратов, который в случае множественной регрессии удобнее представить в матричной форме.

Применяются следующие обозначения: а = (аj), j = 0,1,…,m – вектор оценок параметров, m – число неизвестных параметров; у = (уi), i = 1,2,…,n – вектор значений зависимой переменной, n – число наблюдений; х = (хij) – матрица значений независимых переменных размерностью n(m+1); е = (ei) – вектор ошибок в уравнении с оцененными параметрами.

18) Статистический анализ модели многомерной регрессии: ANOVA.

19) Проверка мультиколлинеарности независимых переменных.

Проверка сводится к выяснению линейной независимости полиномов.

20) Виды трендовых кривых. Преобразования переменных, сводящие тренд к линейной регрессии.

21) Линейный, квадратичный и экспоненциальный рост в экономике.

22) S-образная кривая как график распространения нового товара.

Суть: стадии разработки, внедрения на рынок, роста, зрелости, насыщения, спада....рисуем прибыль и выручку – они s-образны. По осям – время по оси абсцис, выручка и прибыль – по оси ординат.

23) Примеры производственных функций.

четыре типа производственных функций и изоквант. 1. Функции с полным взаимозамещением ресурсов, например, Y=a1X1+a2X2 2. Неоклассическая производственная функция, например, Y=X1a1X2a2, a1+a2<=1 3. Функции с полным взаимодополнением ресурсов, например, 4. Функции смешанного типа, например, Y=y1+y2 : Xi=>aiy1+biy2, i=1,2.

24) Описание модели ARIMA.

AR(p)+MA(q)->ARMA(p,q)->ARMA(p,q)(P,Q)->ARIMA(p,q,r)(P,Q,R)->...

AR(p) -авторегрессионая модель порядка p.

Модель имеет вид:

Y(t)=f_0+f_1*Y(t-1)+f_2*Y(t-2)+...+f_p*Y(t-p)+E(t)

где
Y(t)-зависимая переменная в момент времени t. f_0, f_1, f_2, ..., f_p - оцениваемые параметры. E(t) - ошибка от влияния переменных, которые не учитываются в данной модели. Задача заключается в том, чтобы определить f_0, f_1, f_2, ..., f_p.

MA(q) -модель со скользящим средним порядка q.

Модель имеет вид:

Y(t)=m+e(t)-w_1*e(t-1)-w_2*e(t-2)-...-w_p*e(t-p)

Где Y(t)-зависимая переменная в момент времени t. w_0, w_1, w_2, ..., w_p - оцениваемые параметры.

три типа параметров модели: параметры авторегрессии (p), порядок разности (d), параметры скользящего среднего (q). В обозначениях Бокса и Дженкинса модель записывается как АРПСС (p, d, q). Например, модель (0, 1, 2) содержит 0 (нуль) параметров авторегрессии (p) и 2 параметра скользящего среднего (q), которые вычисляются для ряда после взятия разности с лагом 1.

25) Подбор модели Бокса-Дженкинса по полным и частичным автокорреляциям временного ряда.

расчет значений автокорреляционной функции, например, методом МНК

необходимо брать разности ряда до тех пор, пока он не станет (часто также применяют логарифмическое преобразование для стабилизации дисперсии). Число разностей, которые были взяты, чтобы достичь стационарности, определяются параметром d (см. предыдущий раздел). Для того чтобы определить необходимый порядок разности, нужно исследовать график ряда и автокоррелограмму. Сильные изменения уровня (сильные скачки вверх или вниз) обычно требуют взятия несезонной разности первого порядка (лаг=1). Сильные изменения наклона требуют взятия разности второго порядка. Сезонная составляющая требует взятия соответствующей сезонной разности (см. ниже). Если имеется медленное убывание выборочных коэффициентов автокорреляции в зависимости от лага, обычно берут разность первого порядка. Однако следует помнить, что для некоторых временных рядов нужно брать разности небольшого порядка или вовсе не брать их. Заметим, что чрезмерное количество взятых разностей приводит к менее стабильным оценкам коэффициентов.

  1. Один параметр (p): АКФ - экспоненциально убывает; ЧАКФ - имеет резко выделяющееся значение для лага 1, нет корреляций на других лагах.

  2. Два параметра авторегрессии (p): АКФ имеет форму синусоиды или экспоненциально убывает; ЧАКФ имеет резко выделяющиеся значения на лагах 1, 2, нет корреляций на других лагах.

  3. Один параметр скользящего среднего (q): АКФ имеет резко выделяющееся значение на лаге 1, нет корреляций на других лагах. ЧАКФ экспоненциально убывает.

  4. Два параметра скользящего среднего (q): АКФ имеет резко выделяющиеся значения на лагах 1, 2, нет корреляций на других лагах. ЧАКФ имеет форму синусоиды или экспоненциально убывает.

  5. Один параметр авторегрессии (p) и один параметр скользящего среднего (q): АКФ экспоненциально убывает с лага 1; ЧАКФ - экспоненциально убывает с лага 1.

26) Преимущества и недостатки модели ARIMA.

27) Применение модели ARIMA к сезонным временным рядам.

 Сезонные модели. Мультипликативная сезонная АРПСС представляет естественное развитие и обобщение обычной модели АРПСС на ряды, в которых имеется периодическая сезонная компонента. В дополнении к несезонным параметрам, в модель вводятся сезонные параметры для определенного лага (устанавливаемого на этапе идентификации порядка модели). Аналогично параметрам простой модели АРПСС, эти параметры называются: сезонная авторегрессия (ps), сезонная разность (ds) и сезонное скользящее среднее (qs). Таким образом, полная сезонная АРПСС может быть записана как АРПСС (p,d,q)(ps,ds,qs). Например, модель (0,1,2)(0,1,1) включает 0 регулярных параметров авторегрессии, 2 регулярных параметра скользящего среднего и 1 параметр сезонного скользящего среднего. Эти параметры вычисляются для рядов, получаемых после взятия одной разности с лагом 1 и далее сезонной разности. Сезонный лаг, используемый для сезонных параметров, определяется на этапе идентификации порядка модели.

Общие рекомендации относительно выбора обычных параметров (с помощью АКФ и ЧАКФ) полностью применимы к сезонным моделям. Основное отличие состоит в том, что в сезонных рядах АКФ и ЧАКФ имеют существенные значения на лагах, кратных сезонному лагу (в дополнении к характерному поведению этих функций, описывающих регулярную (несезонную) компоненту АРПСС).

 

28) Средняя квадратичная ошибка как основной критерий адекватности модели. Подбор параметров модели по методу наименьших квадратов.

29) Основные информационные критерии: AIC и BIC.

30) Методы анализа независимости остатков.

Анализ остатков позволяет получить представление, насколько хорошо подобрана сама модель и насколько правильно выбран метод оценки коэффициентов. Изучение графика остатков может показать наличие какой-то зависимости, неучтенной в модели, например, показать необходимость перехода к нелинейной модели или включения в модель периодических компонент. Для проверки нормальности распределения остатков используется график нормального распределения, критерии типа Колмогорова-Смирнова, хи-квадрат и др. Для проверки независимости остатков обычно используются критерий серий и критерий Дарбина-Уотсона. В случае выявления сильной корреляции остатков следует перейти от регрессионной модели к моделям типа авторегрессии скользящего среднего и возможно использовать разностные и сезонные операторы удаления тренда.

Могут быть двугорбые распределения остатков, следовательно, существует несколько прямых регрессий, значит нужно осуществить разбиение респондентов по какому-то признаку, и построить несколько регрессионных зависимостей. Смотрим на хвосты:

  • резкое отличие от остальных

  • крайние точки – «выбросы» (outliers)

    • ошибки (набора...)

    • особые люди

      • понять причину возникновения

      • выкинуть, но можно рассмотреть отдельно

    • если выбросы в находящихся подряд анкетах – интервьюер

Выбросам надо уделять особое внимание, так как их присутствие может грубо искажать значения оценок (особенно если для их получения используется МНК). Устранение эффектов выбросов может проводиться любо с помощью удаления этих точек из анализируемых данных, либо с помощью применения методов оценивания параметров, устойчивых к подобным грубым отклонениям.

Методы выкидывания:

  • просто выкинуть (цензурирование)

  • заменить модельными значениями

31) Алгоритм ex post прогнозирования.

32) Устройство типичной нейронной сети.

Искусственная нейронная сеть (ИНС, нейронная сеть) - это набор нейронов, соединенных между собой. Как правило, передаточные функции всех нейронов в нейронной сети фиксированы, а веса являются параметрами нейронной сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы нейронной сети, а некоторые выходы - как внешние выходы нейронной сети. Подавая любые числа на входы нейронной сети, мы получаем какой-то набор чисел на выходах нейронной сети. Таким образом, работа нейронной сети состоит в преобразовании входного вектора в выходной вектор, причем это преобразование задается весами нейронной сети.

33) Этапы функционирования нейронной сети: обучение и прогнозирование.

Обучить нейронную сеть - значит, сообщить ей, чего мы от нее добиваемся. Этот процесс очень похож на обучение ребенка алфавиту. Показав ребенку изображение буквы "А", мы спрашиваем его: "Какая это буква?" Если ответ неверен, мы сообщаем ребенку тот ответ, который мы хотели бы от него получить: "Это буква А". Ребенок запоминает этот пример вместе с верным ответом, то есть в его памяти происходят некоторые изменения в нужном направлении. Мы будем повторять процесс предъявления букв снова и снова до тех пор, когда все 33 буквы будут твердо запомнены. Такой процесс называют "обучение с учителем".

При обучении нейронной сети мы действуем совершенно аналогично. У нас имеется некоторая база данных, содержащая примеры (набор рукописных изображений букв). Предъявляя изображение буквы "А" на вход нейронной сети, мы получаем от нее некоторый ответ, не обязательно верный. Нам известен и верный (желаемый) ответ - в данном случае нам хотелось бы, чтобы на выходе нейронной сети с меткой "А" уровень сигнала был максимален. Обычно в качестве желаемого выхода в задаче классификации берут набор (1, 0, 0, ...), где 1 стоит на выходе с меткой "А", а 0 - на всех остальных выходах. Вычисляя разность между желаемым ответом и реальным ответом сети, мы получаем 33 числа - вектор ошибки. Алгоритм обратного распространения ошибки - это набор формул, который позволяет по вектору ошибки вычислить требуемые поправки для весов нейронной сети. Одну и ту же букву (а также различные изображения одной и той же буквы) мы можем предъявлять нейронной сети много раз. В этом смысле обучение скорее напоминает повторение упражнений в спорте - тренировку.

Оказывается, что после многократного предъявления примеров веса нейронной сети стабилизируются, причем нейронная сеть дает правильные ответы на все (или почти все) примеры из базы данных. В таком случае говорят, что "нейронная сеть выучила все примеры", "нейронная сеть обучена", или "нейронная сеть натренирована". В программных реализациях можно видеть, что в процессе обучения величина ошибки (сумма квадратов ошибок по всем выходам) постепенно уменьшается. Когда величина ошибки достигает нуля или приемлемого малого уровня, тренировку останавливают, а полученную нейронную сеть считают натренированной и готовой к применению на новых данных.
    Важно отметить, что вся информация, которую нейронная сеть имеет о задаче, содержится в наборе примеров. Поэтому качество обучения нейронной сети напрямую зависит от количества примеров в обучающей выборке, а также от того, насколько полно эти примеры описывают данную задачу. Так, например, бессмысленно использовать нейронную сеть для предсказания финансового кризиса, если в обучающей выборке кризисов не представлено. Считается, что для полноценной тренировки нейронной сети требуется хотя бы несколько десятков (а лучше сотен) примеров.
Повторим еще раз, что обучение нейронных сетей - сложный и наукоемкий процесс. Алгоритмы обучения нейронных сетей имеют различные параметры и настройки, для управления которыми требуется понимание их влияния.


Применение нейронной сети

После того, как нейронная сеть обучена, мы можем применять ее для решения полезных задач. Важнейшая особенность человеческого мозга состоит в том, что, однажды обучившись определенному процессу, он может верно действовать и в тех ситуациях, в которых он не бывал в процессе обучения. Например, мы можем читать почти любой почерк, даже если видим его первый раз в жизни. Так же и нейронная сеть, грамотным образом обученная, может с большой вероятностью правильно реагировать на новые, не предъявленные ей ранее данные. Например, мы можем нарисовать букву "А" другим почерком, а затем предложить нашей нейронной сети классифицировать новое изображение. Веса обученной нейронной сети хранят достаточно много информации о сходстве и различиях букв, поэтому можно рассчитывать на правильный ответ и для нового варианта изображения.

34) Методы прогнозирования показателей NPV и IRR.

35) Прогнозирование рисков проекта.

36) Составление прогнозов при оценке инноваций.

37) Роль прогнозирования при выборе инновационной стратегии.



Скачать документ

Похожие документы:

  1. Прогнозирование, профилактика и упреждающая интенсивная терапия полиорганной недостаточности при постгеморрагических и септических состояниях голубцов владислав Викторович

    Документ
    Обширное повреждение тканей, боль, кровопотеря, инфекция - вот далеко не полный перечень причин, вызывающих сходные по своему патогенетическому течению состояния, определяемые как критические, или шоковые.
  2. Программа дисциплины Инвестиционно-технологическое прогнозирование для направления 080500. 68 «Менеджмент» подготовки магистра Автор Никонов И. М (1)

    Программа дисциплины
    Целью программы курса «Инвестиционно-технологическое прогнозирование» является формирование комплекса знаний, умений и навыков для выполнения прогнозных расчетов и оценок показателей при формировании инвестиционных и инновационных проектов.
  3. Программа дисциплины Инвестиционно-технологическое прогнозирование для направления 080500. 68 «Менеджмент» подготовки магистра Автор Никонов И. М (2)

    Программа дисциплины
    Целью курса «Инвестиционно-технологическое прогнозирование» является формирование комплекса знаний, умений и навыков для осуществления прогнозных расчетов и оценок показателей при формировании инвестиционных и инновационных проектов.
  4. Прогнозирование развития образования в условиях нестабильности (кризиса)

    Документ
    В литературе (отечественной и зарубежной) накоплен определенный опыт методологического и методического обеспечения прогнозирования развития системы профессионального образования и спроса на подготовку специалистов.
  5. Альтернативы миграционной стратегии Анатолий Вишневский

    Документ
    По Европе, Америке, а также и по России бродит очередной призрак: на сей раз призрак нелегальной иммиграции. Усилить борьбу с этим «злом» требуют многие – от Вашингтона до Москвы.

Другие похожие документы..