Аннотация.
В статье рассматривается задача разделения смеси гауссовских компонент, заключающаяся в определении по имеющимся наблюдениям параметров компонент смеси. Предлагается подход к решению данной задачи, основанный на байесовском оценивании с применением наиболее информативных априорных распределений (Maximal Data Information Prior – MDIP). Новизна описанного подхода заключается в использовании выборочных оценок для вычисления априорного распределения и определения настроек алгоритма Метрополиса-Гастингса для семплирования с адаптивной поэтапной подстройкой параметров предложенного распределения.
Ключевые слова:
смесь распределений, байесовское оценивание, априорное распределение, алгоритм Метрополиса-Гастингса.
Стр. 25-33.
DOI 10.14357/20718632200103 Литература
1. McLachlan, G., and D. Peel. Finite Mixture Models. – Hoboken, NJ: John Wiley & Sons. Inc., 2000. 2. Figueiredo, M.A.T. and Jain A.K. Unsupervised Learning of Finite Mixture Models. // IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24(3), pp.381-396, 2012. 3. Reynolds, D.A., Rose, R.C. Robust Text-Independent Speaker Identification using Gaussian Mixture Speaker Models // IEEE Transactions on Acoustics, Speech, and Signal Processing, vol.3(1). pp.72-83, 1995. 4. Brigo Damiano, Mercurio Fabio. Lognormal-mixture dynamics and calibration to market volatility smiles. // International Journal of Theoretical and Applied Finance, vol.5(4), pp.427-452, 2002. 5. Дубнов Ю.А., Булычев А.В. Байесовская идентификация параметров смеси нормальных распределений // Информационные технологии и вычислительные системы. 2017. вып.1. С. 101-111. 6. Dempster A.P., Laird N.M., Rubin D.B. Maximum Likelihood from Incomplete Data via the EM Algorithm.// Journal of the Royal Statistical Society. Series B, vol.39(1), pp.1-38, 1977. 7. John E. Rolph. Bayesian Estimation of Mixing Distributions // The Annals of Mathematical Statistics, vol.39, No.4, pp.1289-1302, 1968. 8. Andrew Gelman. Bayes, Jeffreys, Prior Distributions and the Philosophy of Statistics // Statistical Science, vol.24, No.2, pp.176-178, 2009. 9. Robert E. Kass and Larry Wasserman. The Selection of Prior Distributions by Formal Rules // Journal of the American Statistical Association, vol.91, No.435, pp.1343-1370, 1996. 10. Navid Feroze and Muhammad Aslam. Bayesian Estimation of Two-Component Mixture of Gumbel Type II Distribution under Informative Priors // International Journal of Advanced Science and Technology, vol.53, pp.11-30, 2013. 11. Zellner A. Past and Recent Results on Maximal DataInformation Priors // Texhnical Report, Graduate School of Business, University of Chicago, 1996. 12. Siddhartha Chib, Edward Greenberg. Understanding the Metropolis-Hastings Algorithm // The American Statistician, vol.49, No.4, pp.327-335, 1995. 13. Gilks, W.R. and Roberts, G. O. ”Strategies for improving MCMC”, in (Gilks, W.R. eds) Markov Chain Monte Carlo in Practice, Chapman & Hall/CRC? 1996. 14. Robert, Christian; Casella, George. Monte Carlo Statistical Methods. Springer, 2004. 15. Dempster A.P., Laird N.M., Rubin D.B. Maximum Likelihood from Incomplete Data via the EM Algorithm.// Journal of the Royal Statistical Society. Series B, vol.39(1), pp.1-38, 1977.
|