ВЫВОДЫ
В следующих двух главах рассмотрим ряд важных деталей, связанных с применением адаптивного байесова подхода при параметрической и непараметрической априорной неопределенности, а сейчас, допуская некоторые повторения, кратко обсудим основные результаты этой главы.
1. Как и обычный байесов, адаптивный байесов подход основан на выборе правила решения u = u(x), минимизирующего ожидаемые при данном состоянии имеющихся знаний потери. Отличие заключается в том, что из-за недостатка априорных сведений вместо точной количественной меры ожидаемых потерь - апостериорного риска - вводится его оценка, максимально использующая имеющиеся данные наблюдения и ограниченные априорные сведения. Этот принцип применяется как при параметрической, так и при непараметрической априорной неопределенности.
2. Если использованная при нахождении адаптивного байесова правила решения оценка апостериорного риска состоятельна, то это правило удовлетворяет большинству из принципов предпочтения (принципов оптимальности), возможных в условиях априорной неопределенности и рассмотренных в § 4.3, то есть действительно этот подход дает наилучшие в условиях априорной неопределенности правила решения. Состоятельность оценки апостериорного риска обеспечивается, если в условиях параметрической априорной неопределенности заменить неизвестные значения параметров , входящих в распределение вероятности для х и , состоятельными оценками этих параметров, а в условиях непараметрической априорной неопределенности подобно тому, как это сделано в примере 2 § 6.1, заменить при вычислении апостериорного риска (или только его минимума) операцию математического ожидания эмпирическим осреднением по совокупности имеющихся данных наблюдения.
|
|
3. При параметрической априорной неопределенности процедура нахождения адаптивного байесова правила решения принципиально весьма проста: она сводится к замене в обычном байесовом правиле решения u = uo(x, ), полученном для известного значения , этого значения его состоятельной оценкой (х), найденной с использованием имеющихся данных наблюдения.
Если при этом оценка (х) удовлетворяет дополнительному требованию (6.2.12), которое при оговоренных выше условиях приводит к необходимости выбора в качестве (x) оценки максимального правдоподобия *(x) (см. уравнения (6.2.15), (6.3.3)), то адаптивное байесово правило решения удовлетворяет еще одному важному принципу оптимальности: оно является равномерно наилучшим приближением к обычному (абсолютно оптимальному) байесову правилу решения и обеспечивает минимум максимального отклонения среднего риска от минимального байесова риска.
|
|
4. Если вместо требования равномерно наилучшего приближения принять требование наилучшего приближения в среднем с весом () к обычному байесову правилу решения, то соответствующее приближенно оптимальное правило решения u = u*(x) находится минимизацией усредненного по среднего риска R(u(x), ), а сама функция может быть формально интерпретирована как плотность вероятности для неизвестных параметров . При этом правило решения u*(х) является обычным байесовым правилом для совместного распределения вероятности х и с плотностью (6.5.2), получающейся усреднением по неизвестным параметрам с плотностью вероятности .
Естественно, что это правило решения может быть найдено совершенно точно с помощью обычной байесовой процедуры при любой . Однако если функция является относительно плавной - мало изменяется в пределах разброса оценки максимального правдоподобия для относительно истинного значения (количественные требования определяются неравенствами (6.5.7)), то правило решения u*(х) совершенно аналогично адаптивному байесову правилу u0(х, ) может быть найдено минимизацией состоятельных оценок апостериорного риска (6.5.8), (6.5.17), (6.5.18), для нахождения которых не требуется детального задания или вообще знания функции .
5. Во многих случаях оба правила решения (u0(x, ) и u*(х)) просто совпадают. Это, конечно, свидетельствует о том, что средний риск любого из них отличается от минимального байесова риска на постоянную при всех значениях величину, которая по определению этих правил решения минимальна и в силу их асимптотической оптимальности стремится к нулю с ростом качества и объема данных наблюдения. Выбор между этими правилами в случае их несовпадения зависит от того, что более важно в данной конкретной задаче: наилучшее в среднем приближение к абсолютно оптимальному правилу решения или приближение, обеспечивающее минимум максимального отклонения.