Перплексия (Hyjhlytvnx)

Перейти к навигации Перейти к поиску

Перплексия в теории информации  — безразмерная величина, мера того, насколько хорошо распределение вероятностей предсказывает выборку. Перплексия может использоваться для сравнения качества статистических моделей. Низкий показатель перплексии указывает на то, что распределение вероятности хорошо предсказывает выборку.

Перплексия распределения вероятности[править | править код]

Перплексия PP дискретного распределения вероятности p определяется как ,

где  — энтропия (в битах) распределения, а  — диапазон событий. (Основание логарифма не обязательно должно быть равно 2: перплексия не зависит от основания логарифма при условии, что энтропия и показательная функция имеют одно и то же основание).

Перплексия — это показательная функция от энтропии, которая является более точно определенной величиной. Энтропия — это мера ожидаемого, или «среднего» количества битов, необходимых для кодирования результата случайной переменной, например, используя теоретически оптимальный код переменной длины.Перплексия случайной переменной X может быть определена как перплексия распределения по ее возможным значениям x.

В частном случае, когда p моделирует k-стороннюю игральную кость (равномерное распределение по k дискретным событиям), ее перплексия равна k. Случайная величина с перплексией k имеет такую же неопределенность, как и k-сторонняя игральная кость.

Понятие перплексии иногда используется в значении меры сложности проблемы предсказания. Это не всегда точно. Если у вас есть два исхода, один из которых имеет вероятность 0,9, то при использовании оптимальной стратегии ваши шансы на правильное угадывание составляют 90 процентов. Перплексия составляет . Обратная величина к перплексии (которая в случае со справедливым k-сторонним кубиком представляет собой вероятность правильного угадывания) равна , а не 0,9.

Сложность вероятностной модели[править | править код]

Модель с неизвестным распределения вероятности величины может создана на основе обучающей выборки, взятой из . Учитывая предложенную модель вероятности , можно оценить , определив насколько хорошо она предсказывает отдельную тестовую выборку , также взятую из . Перплексия модели вычисляется как

,

где обычно равно 2. Чем выше качество модели для неизвестного распределения , тем больше вероятности для тестовых событий, и, таким образом, у них меньше значение перплексии.

Приведенную выше экспоненту можно рассматривать как среднее количество бит, необходимое для представления тестового события , если использовать оптимальный код, основанный на . Модели с более низким значением перплексии лучше справляются со сжатием тестовой выборки, требуя в среднем меньше бит на тестовый элемент, поскольку имеет тенденцию к росту.

Показатель экспоненты также может рассматриваться как перекрёстная энтропия

,

где обозначает эмпирическое распределение тестовой выборки (то есть , если встречается раз в тестовой выборке размера ).

Перплексия на слово[править | править код]

В обработке естественного языка перплексия — это способ оценки качества языковых моделей. Языковая модель — это распределение вероятностей по целым предложениям или текстам.

Используя определение переплексии для вероятностной модели, можно обнаружить, например, что среднее предложение в тестовой выборке может быть закодировано в 190 битах, что дает огромное значение перплексии модели на предложение. В этом случае нормализуют длину предложения и учитывают только количество битов в слове. Если предложения тестовой выборки состоят из 1000 слов и могут быть закодированы с использованием 7,95 бита на слово, то перплексия модели составит на слово.

Наименьшее значение перплексии, которое было расcчитано для корпуса текстов Брауна (1 миллион слов американского английского языка различных тем и жанров) по состоянию на 1992 год, составляет около 247 на слово, что соответствует перекрестной энтропии бита на слово или 1,75 бита на букву[1] при использовании триграммной модели. Часто можно добиться меньшей перплексии на более специализированных корпусах текстов, поскольку они более предсказуемы.

Перплексия нейросетевой модели для русского языка ruGPT-3 на тестовой выборке составляет для ruGPT-3 Large величину 13.6, для ruGPT-3 XL — 12.05 [2][3].

Примечания[править | править код]

  1. Brown, Peter F. "An Estimate of an Upper Bound for the Entropy of English" (англ.) // Computational Linguistics. 18 (1). — Retrieved 2007-02-07.. Архивировано 17 сентября 2021 года.
  2. Большая нейросеть для русского языка ruGPT-3. SberCloud (ООО «Облачные технологии»). Дата обращения: 3 октября 2021. Архивировано 3 октября 2021 года.
  3. Sber AI. Russian GPT-3 models (англ.). Sber AI. Sber AI (2021).