Документ взят из кэша поисковой машины. Адрес
оригинального документа
: http://www.iki.rssi.ru/magbase/REFMAN/STATTEXT/glossary/gloss_r.html
Дата изменения: Unknown Дата индексирования: Fri Dec 21 22:27:42 2007 Кодировка: Windows-1251 Поисковые слова: star formation |
Равномерное распределение. Дискретное равномерное распределение (этот термин был впервые использован Успенским в 1937 г.) сосредоточено в нескольких точках, которым приписывает равные вероятности:
f(x) = 1/N x = 1, 2, ..., N
Непрерывное равномерное распределение сосредоточено на интервале [a, b] и имеет следующую функцию плотности:
f(x) = 1/(b-a) a < x < b
где
a - верхняя граница
интервала, из которого выбираются точки
b - нижняя граница интервала,
из которого выбираются точки
Радиальные
базисные функции. Вид нейронной
сети, имеющий промежуточный
слой из радиальных элементов и выходной слой
из линейных элементов. Сети
этого типа довольно компактны и быстро
обучаются. Предложены в работах Broomhead and Lowe (1988) и
Moody and Darkin (1989), описаны в большинстве учебников по нейронным сетям (например,
Bishop, 1995; Haykin, 1994). См. раздел Neural
Networks.
Разведочный анализ данных (РАД). В отличие от традиционной проверки гипотез, предназначенной для проверки априорных предположений, касающихся связей между переменными (например, такого рода: "Имеется положительная корреляция между возрастом человека и его/ее предрасположенностью к риску"), разведочных анализ данных (РАД) применяется для нахождения систематических связей между переменными в ситуациях, когда отсутствуют (или имеются недостаточные) априорные представления о природе этих связей. Как правило, при разведочном анализе учитывается и сравнивается большое число переменных, при этом для поиска закономерностей используются самые разные методы.
Дополнительную информацию см. в разделе Разведочный анализ данных.
Разность
(в анализе временных рядов). В данном
преобразовании временного ряда, ряд будет
преобразован как: X=X-X(лаг). После взятия разности
модифицированный ряд будет иметь длину N-лаг (где
N - длина исходного ряда).
Разрешение.
План разрешения R - это такой план, в
котором нет взаимодействий
порядка l, смешивающихся с любыми другими
взаимодействиями порядка меньше R - l. Например, в
плане с разрешением R, равным 5, нет
взаимодействий порядка l = 2, которые смешиваются
с любыми другими взаимодействиями порядка
меньше, чем R - l = 3; таким образом, главные эффекты
в этом плане не смешиваются друг с другом,
главные эффекты не смешиваются с
взаимодействиями порядка 2, а взаимодействия
порядка 2 не смешиваются друг с другом. Для
обсуждения роли разрешения в планировании
эксперимента см. 2**(k-p) дробные
факторные планы и Поиск
лучшего 2**(k-p) дробного факторного плана.
Распределение Вейбулла. Распределение Вейбулла (Weibull, 1939 г., 1951 г.; см. также Lieblein, 1955 г.) имеет следующую функцию плотности (для положительных параметров b, c и ):
f(x) = c/b*[(x-)/b]c-1
* e^{-[(x-)/b]c}
< x, b > 0, c
> 0
где
b - параметр масштаба
распределения
c - параметр (формы)
распределения
-
параметр положения распределения
e - число Эйлера (2.71...)
На рисунке показано изменение распределения
Вейбулла при увеличении параметра формы (.5, 1, 2, 3,
4, 5 и 10).
Распределение Коши. Распределение Коши (этот термин был впервые использован Успенским в 1937 г.) имеет следующую функцию плотности:
f(x) = 1/(*{1 + [(x-)/]2})
0 <
где
- параметр
положения (медиана)
- параметр
масштаба
- число пи (3.1415...)
На рисунке показано изменение формы
распределения Коши в зависимости от
различных значений параметра масштаба (1, 2, 3 и 4)
при параметре положения равном 0 .
Распределение Лапласа. Распределение Лапласа (или двойное экспоненциальное) имеет следующую функцию плотности:
f(x) = 1/(2b)*e-|x-a|/b - < x <
где
a - среднее распределения
b - параметр масштаба
e - число Эйлера (2.71...)
На рисунке показано изменение формы
распределения Лапласа в зависимости от значений
параметра масштаба (1, 2, 3 и 4) при нулевом значении
среднего.
Распределение Парето. Стандартное распределение Парето имеет следующую функцию плотности (для положительного параметра c ):
f(x) = c/xc+1 1 x, c > 0
где
c параметр (формы)
распределения.
На рисунке показан вид распределения Парето
при различных значениях параметра (1, 2, 3, 4 и 5).
Распределение Пуассона. Распределение Пуассона (этот термин был впервые использован Сопером в 1914 г.) определяется следующим образом:
f(x) = (x
* e-)/x!
for x = 0, 1, 2, .., 0 <
где
- ожидаемое
значение x (среднее)
e - число Эйлера (2.71...)
Распределение Релея. Распределение Релея имеет следующую функцию плотности:
f(x) = x/b2 * e-(x 2/2b2)
0 x <
b > 0
где
b - параметр масштаба
e - число Эйлера (2.71...)
См. также Анализ процессов.
На рисунке показано изменение формы
распределения Релея в зависимости от значений
параметра масштаба (1, 2 и 3).
Распределение хи-квадрат. Распределение хи-квадрат определяется следующим образом:
f(x) = {1/[2/2 * (/2)]} * [x(/2)-1 * e-x/2]
= 1, 2, ..., 0 < x
где
- число
степеней свободы
e - число Эйлера (2.71...)
-
гамма-функция
На рисунке показано изменение формы хи-квадрат
распределения при увеличении числа степеней
свободы (1, 2, 5, 10, 25 и 50).
Расстояние
городских кварталов (манхэттенское расстояние).
Это расстояние является просто средним
разностей по координатам. В большинстве случаев
эта мера расстояния приводит к таким же
результатам, как и для обычного расстояния
Евклида. Однако отметим, что для этой меры
влияние отдельных больших разностей (выбросов) уменьшается (так как
они не возводятся в квадрат). См. также раздел Кластерный анализ.
Расстояния Кука. Это еще одна мера влияния соответствующего наблюдения на уравнение регрессии. Эта величина показывает разницу между вычисленными B - коэффициентами и значениями, которые получились бы при исключении соответствующего наблюдения. В адекватной модели все расстояния Кука должны быть примерно одинаковыми; если это не так, то имеются основания считать, что соответствующее наблюдение (или наблюдения) смещает оценки коэффициентов регрессии.
См. также разделы Стандартизованные
остатки, Расстояния
Махаланобиса и Удаленные
остатки.
Расстояния Махаланобиса. Независимые переменные в уравнении регрессии можно представлять точками в многомерном пространстве (каждое наблюдение изображается точкой). В этом пространстве можно построить точку центра. Эта "средняя точка" в многомерном пространстве называется центроидом, т.е. центром тяжести. Расстояние Махаланобиса определяется как расстояние от наблюдаемой точки до центра тяжести в многомерном пространстве, определяемом коррелированными (неортогональными) независимыми переменными (если независимые переменные некоррелированы, расстояние Махаланобиса совпадает с обычным евклидовым расстоянием). Эта мера позволяет, в частности, определить является ли данное наблюдение выбросом по отношению к остальным значениям независимых переменных.
См. также разделы Стандартизованные
остатки, Удаленные
остатки и Расстояния Кука.
Расширение HTM. Это
расширение используется для обозначения файлов,
записанных в формате HTML.
Расширение JPG. Это
расширение используется для обозначения файлов,
записанных в формате JPEG.
Регрессионные B-коэффициенты. Линия в двумерном пространстве (задаваемом двумя переменными) определяется уравнением Y=a+b*X; или, подробнее: значение переменной Y может быть вычислено как сумма константы (a) и произведения углового коэффициента (b) на значение переменной X. Константу также часто называют свободным членом, а угловой коэффициент называют коэффициентом регрессии или B-коэффициентом. В общем случае, процедура множественной регрессии оценивает уравнение линейной регрессии в виде:
Y = a + b1*X1 + b2*X2 + ... +bp*Xp
Отметим, что в этом уравнении коэффициенты регрессии (или B коэффициенты) представляют независимые вклады каждой независимой переменной в зависимую переменную. Однако, их значения не сравнимы, поскольку зависят от единиц измерения и диапазонов измерения соответствующих переменных. Таблица результатов регрессионного анализа содержит как обычные регрессионные коэффициенты (B-коэффициенты), так и бета-коэффициенты (отметим, что коэффициенты бета являются сравнимыми для разных переменных).
См. также раздел Множественная
регрессия.
Регрессионные бета-коэффициенты. Коэффициенты бета являются коэффициентами, которые были бы получены, если бы мы заранее стандартизовали все переменные, т.е. сделали их среднее равным 0, а стандартное отклонение равное 1. Одно из преимуществ бета-коэффициентов (по сравнению с B коэффициентами) заключается в том, что бета-коэффициенты позволяют сравнить относительные вклады каждой независимой переменной в предсказание зависимой переменной.
См. также раздел Множественная
регрессия.
Регрессия. Категория задач, где цель состоит в том, чтобы оценить значение непрерывной выходной переменной по значениям входных переменных.
См. также раздел Множественная
регрессия.
Регуляризация (для нейронных сетей). Модификация алгоритмов обучения, имеющая цель предотвратить пере- и недо-подгонку на обучающих данных за счет введения штрафа за сложность сети (обычно штрафуются большие значения весов - они означают, что отображение, моделируемое сетью, имеет большую кривизну) (Bishop, 1995).
См. раздел Neural Networks.