Неравенство концентрации меры (Uyjgfyuvmfk tkueyumjgenn byjd)
В теории вероятностей неравенства концентрации меры дают оценки отклонения случайной величины от некоторого значения (обычно от её математического ожидания). Закон больших чисел классической теории вероятностей утверждает, что суммы независимых случайных величин, при соблюдении довольно слабых условий, с большой вероятностью оказываются близкими к их математическим ожиданиям. Такие суммы являются основными примерами случайных величин, которые сконцентрированы около своих средних значений.
Неравенство Маркова
[править | править код]Пусть случайная величина, почти наверное неотрицательная. Тогда, для всякой константы
- .
Отметим следующее выражение для неравенства Маркова: если — неотрицательная строго возрастающая функция, то
- .
Неравенство Чебышёва
[править | править код]Для неравенства Чебышёва требуется, чтобы случайная величина удовлетворяла следующим условиям:
- математическое ожидание конечно;
- дисперсия конечна.
Тогда для всякой константы
- ,
или, равносильно,
- ,
где — стандартное отклонение случайной величины .
Неравенство Чебышёва может рассматриваться как частный случай обобщённого неравенства Маркова, применённого к случайной величине с .
Неравенство Высочанского-Петунина
[править | править код]Неравенство Гаусса
[править | править код]Границы Чернова
[править | править код]Основной случай границы Чернова[1]:63–65 требует существования для производящей функции, определяемой как . Основываясь на неравенстве Маркова, для каждого
- ,
и для каждого
- .
Границы Чернова различны для различных распределений и различных значений параметра .
Границы сумм независимых случайных величин
[править | править код]Пусть — независимые случайные величины такие, что для всех i:
Пусть - их сумма, - математическое ожидание и — дисперсия
- ,
- ,
- .
Часто представляет интерес оценка разности между суммой и её математическим ожиданием. Можно использовать несколько неравенств.
1. Неравенство Хёфдинга утверждает, что
- .
2. Случайная величина — это специальный случай мартингала, и . Следовательно, можно использовать неравенство Азумы, что даёт чуть более слабую оценку
- .
При этом здесь появляется возможность рассматривать любые мартингалы, в том числе супермартингалы и субмартингалы.
3. Функция суммирования — частный случай функции переменных. Эта функция изменяется ограниченным образом: если переменная изменяется, то значение также изменяется самое большее на . Следовательно, можно использовать неравенство Макдиармида[англ.], и оно даст аналогичную оценку
- .
Это уже другое обобщение неравенства Хёфдинга, поскольку здесь имеется возможность работать не только с функцией суммирования, но и с другими функциями, если они изменяются ограниченным образом.
4. Неравенство Беннета[англ.] даёт некоторые улучшения по сравнению с неравенством Хёфдинга, когда дисперсии слагаемых малы по сравнению с их «почти наверное-границами» C.
- где
5. Первое из неравенств Бернштейна[англ.] утверждает, что
- .
Как и неравенство Хёфдинга, для которого данная оценка является обобщением, первое неравенство Бернштейна учитывает почти наверное ограниченные случайные величины. Более того, оно позволяет получить более точную оценку при условии, что случайные величины имеют ограниченные дисперсии.
6. Границы Чернова имеют особенно простую форму для суммы независимых величин, поскольку
- ].
Например,[2] пусть случайные величины удовлетворяют неравенству при , тогда для нижнего хвоста мы имеем неравенство
- .
Если удовлетворяет неравенству , то для верхнего хвоста мы имеем неравенство
- .
Если независимы и одинаково распределены, и — дисперсия , то типичный вид неравенства Чернова следующий:
- .
7. Аналогичные границы можно найти в разделе: распределение Радемахера (Границы сумм)[англ.]
Неравенство Эфрона-Стейна
[править | править код]Неравенство Эфрона-Стейна (неравенство влияния, или MG-оценка дисперсии) оценивает дисперсию функции общего вида от случайных величин.
Пусть , независимы, a и имеют одинаковое распределение при всех .
Положим Тогда
- .
Неравенство Дворецкого-Кифера-Вольфовица
[править | править код]Неравенство Дворецкого-Кифера-Вольфовица[англ.] оценивает разность между фактической и эмпирической функциями распределения.
Пусть для данного натурального — независимые и одинаково распределённые вещественнозначные случайные величины с функцией распределения . Пусть обозначает соответствующую эмпирическую функцию распределения, определённую формулой
Таким образом, — вероятность события, что отдельная случайная величина меньше, чем , а — это среднее количество величин из выборки , реализации которых меньше, чем .
Тогда верны следующие односторонняя и двусторонняя оценки:
Примечания
[править | править код]- ↑ Mitzenmacher, Michael. Probability and Computing: Randomized Algorithms and Probabilistic Analysis / Mitzenmacher, Michael, Upfal, Eli. — Cambridge University Press, 2005. — ISBN 0-521-83540-2. Архивная копия от 16 апреля 2021 на Wayback Machine
- ↑ Chung, Fan; Lu, Linyuan Old and new concentration inequalities . Complex Graphs and Networks. American Mathematical Society (2010). Дата обращения: 14 августа 2018. Архивировано 15 апреля 2021 года.
Ссылки
[править | править код]- Karthik Sridharan, «A Gentle Introduction to Concentration Inequalities Архивная копия от 9 мая 2020 на Wayback Machine» — Cornell University
- One Hundred Probability/Statistics Inequalities Архивная копия от 13 апреля 2021 на Wayback Machine. См. «4 Concentration Inequalities»