Обобщение (для нейронных сетей). Способность нейронной сети   делать точный прогноз на данных, не принадлежащих исходному обучающему множеству (но взятых из того же источника). Обычно это качество сети достигается разбиением имеющихся данных на три подмножества; первое из них используется для обучения сети, второе - для кросс-проверки алгоритма обучения во время его работы, и третье - для окончательного независимого тестирования.


Обобщенно-регрессионная нейронная сеть (GRNN). Вид нейронной сети, где для регрессии используются ядерная аппроксимация. Один из видов так называемых байесовых сетей (Speckt, 1991; Patterson, 1996; Bishop, 1995).


Обратное распространение. Алгоритм обучения многослойных персептронов. Надежный и хорошо известный, однако существенно более медленный по сравнению с некоторыми современными алгоритмами (Patterson, 1996; Fausett, 1994; Haykin, 1994).


Общность. В анализе главных компонент и факторном анализе общность - это доля дисперсии, которая является общей для данной и всех остальных переменных. Доля дисперсии, которая является характерной для данной переменной (иногда называется характерностью) получается после вычитанием общности из дисперсии переменной. Другими словами дисперсия переменной есть общность плюс характерность. Обычно вначале в качестве оценки общности используют коэффициент множественной корреляции выбранной переменной со всеми другими (для получения сведений о теории множественной регрессии обратитесь к разделу Множественная регрессия). Некоторые авторы предлагают различные итеративные "улучшения" начальной оценки общности, полученной с использованием множественной регрессии; например, так называемый метод MINRES (метод минимальных факторных остатков; Харман и Джонс (Harman, Jones, 1966)) производит проверку различных модификаций факторных нагрузок с целью минимизации остаточных (необъясненных) сумм квадратов.


Объясненная дисперсия. Доля вариации данных, учитываемая моделью (например, множественной регрессии, дисперсионного анализа, нелинейного оценивания или нейронной сети).


Объясняемые причины и действия. В ходе наблюдения за характеристиками качества процесса следует различать два типа изменчивости. Изменчивость, вызванная общими причинами, соответствует случайной динамике, свойственной этому процессу и свойственной всем наблюдаемым значениям. В идеальном случае, если процесс находится в допустимых пределах, должна присутствовать только обычная изменчивость. На карте контроля качества эта изменчивость изображается в виде случайных колебаний точек, соответствующих отдельным выборкам, вокруг центральной линии, при которых все выборки находятся между верхней и нижней контрольной линиями и отсутствуют какие-либо неслучайные конфигурации наблюдений из соседних выборок. Изменчивость, вызванная специальными или объясняемыми причинами, может быть объяснена наличием особых обстоятельств. Обычно на карте контроля качества это проявляется в виде сильно уклоняющихся выборок (т.е. превышающих нижний или верхний контрольный пределы) или в виде систематической конфигурации (серии) из соседних выборок. Эта изменчивость также влияет на вычисление некоторых характеристик карты (центральной линии и контрольных пределов).

Если вы изучите условия соответствующие недопустимости процесса и обнаружите объяснение для их возникновения, вы сможете сопоставить этим недопустимым выборкам осмысленные описания и объяснить причины (например, дефект некоторого клапана), и произведенные действия, которые их вызвали (например, починка клапана). Наличие на карте причин и действий показывает, что центральная линия и контрольные пределы были подвержены влиянию изменчивости процесса из-за особых причин.


Окно Бартлетта. В  анализе  временных рядов окно Бартлетта означает сглаживание значений периодограммы взвешенным скользящим средним. В окне Бартлетта (Бартлетт, 1950) веса вычисляются как:

wj = 1-(j/p)    (для j от 0 до p)
w-j = wj    (для j 0)

где p = (m-1)/2

Эта весовая функция приписывает больший вес сглаживаемому наблюдению, находящемуся в центре окна и меньшие веса значениям по мере удаления от центра.

См. также раздел Основные понятия и принципы.


Окно Даниэля (равные веса). В анализе  временных рядов окно Даниэля (Daniell, 1946) означает простое (с равными весами) сглаживание значений периодограммы скользящим средним; т.е. каждая оценка спектральной плотности вычисляется как среднее m/2 предыдущих и последующих значений периодограммы.

См. также раздел Основные понятия и принципы.


Окно Парзена. В анализе  временных рядов окно Парзена означает сглаживание значений периодограммы взвешенным скользящим средним. В окне Парзена (Парзен, 1961), для каждой частоты, веса для взвешенного скользящего среднего значений периодограммы вычисляются как:

wj = 1-6*(j/p)2 + 6*(j/p)3    (для j от 0 до p/2)
wj = 2*(1-j/p)3    (для j от p/2 + 1 до p)
w-j = wj    (для j 0)

где p = (m-1)/2

Эта весовая функция приписывает больший вес сглаживаемому наблюдению, находящемуся в центре окна и меньшие веса значениям по мере удаления от центра.

См. также раздел Основные понятия и принципы.

В нейронных сетях окно Парзена - это альтернативное название метода ядерной аппроксимации, см. например, разделы о   вероятностных  и  обобщенно-регрессионных нейронных сетях (Parzen, 1962).


Окно Тьюки. В анализе  временных рядов окно Тьюки означает сглаживание значений периодограммы взвешенным скользящим средним. В окне Тьюки (Блэкмэн и Тьюки, 1958) или Тьюки-Ханна (названное в честь Джулиуса Ван Ханна), для каждой частоты, веса для взвешенного скользящего среднего значений периодограммы вычисляются как:

wj = 0.5 + 0.5*cos(*j/p)    (для j от 0 до p)
w-j = wj    (для j 0)

где p = (m-1)/2x.

Эта весовая функция приписывает больший вес сглаживаемому наблюдению, находящемуся в центре окна и меньшие веса значениям по мере удаления от центра.

См. также раздел Основные понятия и принципы.


Окно Хемминга. В анализе  временных рядов окно Хемминга означает сглаживание значений периодограммы взвешенным скользящим средним. В окне Хемминга (названного в честь Р. В. Хемминга) или Тьюки-Хемминга (Блэкмэн и Тьюки, 1958), для каждой частоты, веса для взвешенного скользящего среднего значений периодограммы вычисляются как:

wj = 0.54 + 0.46*cosine(*j/p)    (для j от 0 до p)
w-j = wj    (для j 0)

где p = (m-1)/2

Эта весовая функция приписывает больший вес сглаживаемому наблюдению, находящемуся в центре окна и меньшие веса значениям по мере удаления от центра.

См. также раздел Основные понятия и принципы.


Окрестность (для нейронных сетей). В обучении по Кохонену   - квадрат, составленный из элементов сети, окружающих "выигравший" элемент, которые одновременно корректируются при обучении.


Оперативная аналитическая обработка данных (OLAP) (Быстрый анализ распределенной многомерной информации - FASMI). Термин оперативная аналитическая обработка данных обозначает технологию, позволяющую пользователю, работающему с многомерными базами данных, в реальном времени получать описательные или сравнительные сводки ("срезы" - "views") данных и ответы на другие аналитические запросы.

Дополнительную информацию см. в разделах Оперативная аналитическая обработка данных (OLAP), а также Хранилища данных и Методы добычи данных.


Остатки. Остатки - это разности между наблюдаемыми значениями и значениями, предсказанными изучаемой моделью. Чем лучше модель согласуется с данными, тем меньше величина остатков. i-ый остаток (ei) вычисляется как:

ei = (yi - yi-с крышкой)

где
yi                - наблюдаемое значение
yi-с крышкой   - соответствующее предсказанное значение.

См. раздел  Множественная регрессия, а также разделы о стандартизованных остатках, расстояниях Махаланобиса, удаленных остатках  и  расстояниях Кука.


Отдельное наблюдение (для нейронных сетей). Наблюдение, данные которого вводятся с клавиатуры и которое затем подается на вход нейронной сети отдельно (а не как часть какого-то файла данных; в обучении такие наблюдения не участвуют). См. раздел  Нейронные сети.


Отклика поверхность. Поверхность, изображенная в трехмерном пространстве, представляющая отклик одной или нескольких переменных (в нейронной сети) в зависимости от двух входных переменных при постоянных остальных. См. разделы  Планирование эксперимента, Нейронные сети.


Отклонение. В радиальных элементах - величина, на которую умножается квадрат расстояния от элемента до входного вектора, в результате чего получается уровень активации элемента, который затем пропускается через функцию активации. См. раздел  Нейронные сети.


Отношение стандартных отклонений. В задачах регрессии - отношение стандартного отклонения ошибки прогноза к стандартному отклонению исходных выходных данных. Чем меньше отношение, тем выше точность прогноза. Эта величина равна единице минус объясненная доля дисперсии модели. См. Множественная регрессия, Нейронные сети.


Отрицательная корреляция. Две переменные могут быть связаны таким образом, что при возрастании значений одной из них значения другой убывают. Это и показывает отрицательный коэффициент корреляции. Про такие переменные говорят, что они отрицательно коррелированы.

См. также Корреляции - Вводный обзор.


Отрицательная экспоненциально взвешенная подгонка (2М графики). В соответствии с процедурой отрицательного экспоненциально взвешенного сглаживания кривая подгоняется к координатам XY данных таким образом, что влияние отдельных точек уменьшается с увеличением расстояния по горизонтали от соответствующих точек на кривой.


Отрицательная экспоненциально-взвешенная подгонка (3М графики). В соответствии с процедурой отрицательного экспоненциально-взвешенного сглаживания поверхность подгоняется к координатам XYZ данных таким образом, что влияние отдельных точек экспоненциально убывает с увеличением расстояния по горизонтали от соответствующих точек на поверхности.

Отсечение (для деревьев классификации). Отсечение в дереве классификации связано с использованием процедур автоматического выбора дерева "подходящего размера", разработанных Breiman et. al. (1984). Эти процедуры предназначены для того, чтобы, не обращаясь к субъективным оценкам, находить дерево классификации "подходящего размера", то есть дерево классификации с нужным числом ветвлений и оптимальной точностью прогноза. Процесс нахождения дерева классификации "подходящего размера" описан в разделе Вычислительные методы  в главе о деревьях классификации.