Распределение Накагами#

Обобщение распределения хи. Параметр формы — \(\nu>0.\) Носитель равен \(x\geq0.\)

\begin{eqnarray*} f\left(x;\nu\right) & = & \frac{2\nu^{\nu}}{\Gamma\left(\nu\right)}x^{2\nu-1}\exp\left(-\nu x^{2}\right)\\ F\left(x;\nu\right) & = & \frac{\gamma\left(\nu,\nu x^{2}\right)}{\Gamma\left(\nu\right)}\\ G\left(q;\nu\right) & = & \sqrt{\frac{1}{\nu}\gamma^{-1}\left(\nu,q{\Gamma\left(\nu\right)}\right)} \end{eqnarray*}

где \(\gamma\) является нижней неполной гамма-функцией, \(\gamma\left(\nu, x\right) = \int_0^x t^{\nu-1} e^{-t} dt\).

\begin{eqnarray*} \mu & = & \frac{\Gamma\left(\nu+\frac{1}{2}\right)}{\sqrt{\nu}\Gamma\left(\nu\right)}\\ \mu_{2} & = & \left[1-\mu^{2}\right]\\ \gamma_{1} & = & \frac{\mu\left(1-4v\mu_{2}\right)}{2\nu\mu_{2}^{3/2}}\\ \gamma_{2} & = & \frac{-6\mu^{4}\nu+\left(8\nu-2\right)\mu^{2}-2\nu+1}{\nu\mu_{2}^{2}} \end{eqnarray*}

Реализация: scipy.stats.nakagami

ОМП распределения Накагами в SciPy (nakagami.fit)#

Функция плотности вероятности nakagami распределение в SciPy — это

\begin{equation} f(x; \nu, \mu, \sigma) = 2 \frac{\nu^\nu}{ \sigma \Gamma(\nu)}\left(\frac{x-\mu}{\sigma}\right)^{2\nu - 1} \exp\left(-\nu \left(\frac{x-\mu}{\sigma}\right)^2 \right),\tag{1} \end{equation}

для \(x\) такой, что \(\frac{x-\mu}{\sigma} \geq 0\), где \(\nu \geq \frac{1}{2}\) является параметром формы, \(\mu\) является местоположением, и \(\sigma\) является масштабом.

Функция логарифмического правдоподобия, следовательно,

\begin{equation} l(\nu, \mu, \sigma) = \sum_{i = 1}^{N} \log \left( 2 \frac{\nu^\nu}{ \sigma\Gamma(\nu)}\left(\frac{x_i-\mu}{\sigma}\right)^{2\nu - 1} \exp\left(-\nu \left(\frac{x_i-\mu}{\sigma}\right)^2 \right) \right),\tag{2} \end{equation}

который может быть разложен как

\begin{equation} l(\nu, \mu, \sigma) = N \log(2) + N\nu \log(\nu) - N\log\left(\Gamma(\nu)\right) - 2N \nu \log(\sigma) + \left(2 \nu - 1 \right) \sum_{i=1}^N \log(x_i - \mu) - \nu \sigma^{-2} \sum_{i=1}^N \left(x_i-\mu\right)^2, \tag{3} \end{equation}

Исключая ограничения, условие оптимальности первого порядка для производных функции правдоподобия даёт оценки параметров:

\begin{align} \frac{\partial l}{\partial \nu}(\nu, \mu, \sigma) &= N\left(1 + \log(\nu) - \psi^{(0)}(\nu)\right) + 2 \sum_{i=1}^N \log \left( \frac{x_i - \mu}{\sigma} \right) - \sum_{i=1}^N \left( \frac{x_i - \mu}{\sigma} \right)^2 = 0 \text{,} \tag{4}\\ \frac{\partial l}{\partial \mu}(\nu, \mu, \sigma) &= (1 - 2 \nu) \sum_{i=1}^N \frac{1}{x_i-\mu} + \frac{2\nu}{\sigma^2} \sum_{i=1}^N x_i-\mu = 0 \text{, and} \tag{5}\\ \frac{\partial l}{\partial \sigma}(\nu, \mu, \sigma) &= -2 N \nu \frac{1}{\sigma} + 2 \nu \sigma^{-3} \sum_{i=1}^N \left(x_i-\mu\right)^2 = 0 \text{,}\tag{6} \end{align}

где \(\psi^{(0)}\) является полигамма-функцией порядка \(0\); т.е. \(\psi^{(0)}(\nu) = \frac{d}{d\nu} \log \Gamma(\nu)\).

Однако носитель распределения — это значения \(x\) для которого \(\frac{x-\mu}{\sigma} \geq 0\), и это обеспечивает дополнительное ограничение, что

\begin{equation} \mu \leq \min_i{x_i}.\tag{7} \end{equation}

Для \(\nu = \frac{1}{2}\), частная производная логарифма правдоподобия по \(\mu\) сводится к:

\begin{equation} \frac{\partial l}{\partial \mu}(\nu, \mu, \sigma) = {\sigma^2} \sum_{i=1}^N (x_i-\mu), \end{equation}

который положителен, когда ограничение поддержки удовлетворено. Поскольку частная производная по \(\mu\) положительна, возрастает \(\mu\) увеличивает логарифмическое правдоподобие, поэтому ограничение активно в оценке максимального правдоподобия для \(\mu\)

\begin{equation} \mu = \min_i{x_i}, \quad \nu = \frac{1}{2}. \tag{8} \end{equation}

Для \(\nu\) достаточно больше, чем \(\frac{1}{2}\), уравнение правдоподобия \(\frac{\partial l}{\partial \mu}(\nu, \mu, \sigma)=0\) имеет решение, и это решение предоставляет оценку максимального правдоподобия для \(\mu\). В любом случае, однако, условие \(\mu = \min_i{x_i}\) предоставляет разумное начальное приближение для численной оптимизации.

Кроме того, уравнение правдоподобия для \(\sigma\) может быть решено явно, и оно предоставляет оценку максимального правдоподобия

\begin{equation} \sigma = \sqrt{ \frac{\sum_{i=1}^N \left(x_i-\mu\right)^2}{N}}. \tag{9} \end{equation}

Следовательно, _fitstart метод для nakagami использует

\begin{align} \mu_0 &= \min_i{x_i} \, \text{and} \\ \sigma_0 &= \sqrt{ \frac{\sum_{i=1}^N \left(x_i-\mu_0\right)^2}{N}} \end{align}

в качестве начальных приближений для численной оптимизации соответственно.