Modèle gmm

Postat

L`algorithme de maximisation des attentes peut être utilisé pour calculer les paramètres d`une distribution de modèle de mélange paramétrique (l`ai et θi). Il s`agit d`un algorithme itératif avec deux étapes: une étape d`attente et une étape de maximisation. Des exemples pratiques d`EM et de modélisation de mélanges sont inclus dans les démonstrations du SOCR. Dans cet article, le modèle de mélange gaussien sera discuté. sklearn. mélange est un paquet qui permet d`apprendre des modèles de mélange gaussien (diagonales, sphériques, liées et les matrices de covariance complète pris en charge), les échantillonner, et les estimer à partir de données. Les installations pour aider à déterminer le nombre approprié de composants sont également fournies. L`algorithme EM pour un modèle de mélange gaussien univarié avec des composants est décrit ci-dessous. Une variable notée désigne une estimation de la valeur. Toutes les équations peuvent être dérivées algébriquement en résolvant pour chaque paramètre comme indiqué dans la section ci-dessus intitulée EM pour les modèles de mélange gaussien.

L`objet Gaussianmelange implémente l`algorithme d`attente de maximisation (EM) pour le montage de modèles mélange-de-gaussien. Il peut également dessiner des ellipsodes de confiance pour des modèles multivariés, et calculer le critère d`information bayésien pour évaluer le nombre de clusters dans les données. Une méthode Gaussianmelange. fit est fournie qui apprend un modèle de mélange gaussien à partir des données de train. Compte tenu des données de test, il peut assigner à chaque échantillon le gaussien il appartient surtout probablement à l`aide de la méthode Gaussianmelange. prédire. Cela indique clairement que GMM aborde les deux principaux problèmes pratiques avec k-means rencontrés avant. Avec de nouvelles estimations pour l`IA et les θi, l`étape d`attente est répétée pour recalculer les nouvelles valeurs d`adhésion. L`intégralité de la procédure est répétée jusqu`à ce que les paramètres du modèle convergent.

Par exemple, considérez certaines données générées à partir de la fonction make_moons de Scikit-Learn, que nous avons vu en profondeur: K-means clustering: le nombre optimal de clusters est la valeur qui minimise l`AIC ou BIC, selon l`approximation que nous souhaitons utiliser. L`AIC nous dit que notre choix de 16 composants ci-dessus était probablement trop grand: environ 8-12 composants auraient été un meilleur choix. Comme c`est typique avec ce genre de problème, le BIC recommande un modèle plus simple. Pour estimer les paramètres par la méthode log-vraisemblable maximale, calculez p (X |,,). où est le coefficient de mélange pour la k-ème distribution. Les modèles de mélange s`appliquent au problème de la réalisation de plusieurs projectiles à une cible (comme dans les applications de défense aérienne, terrestre ou maritime), où les caractéristiques physiques et/ou statistiques des projectiles diffèrent dans les projectiles multiples. Un exemple peut être des tirs de plusieurs types de munitions ou des tirs de plusieurs emplacements dirigés vers une cible. La combinaison de types de projectiles peut être caractérisée comme un modèle de mélange gaussien. [5] en outre, une mesure de précision bien connue pour un groupe de projectiles est l`erreur circulaire probable (CEP), qui est le nombre R tel que, en moyenne, la moitié du groupe de projectiles tombe dans le cercle de rayon R sur le point cible. Le modèle de mélange peut être utilisé pour déterminer (ou estimer) la valeur R. Le modèle de mélange capte correctement les différents types de projectiles.

La figure suivante compare les résultats obtenus pour le type différent de la concentration de poids antérieure (paramètre weight_concentration_prior_type) pour différentes valeurs de weight_concentration_prior. Ici, nous pouvons voir la valeur du paramètre weight_concentration_prior a un impact fort sur le nombre effectif de composants actifs obtenus.