@@ -130,12 +130,12 @@ On en déduit que :
130130
131131 \begin {eqnarray}
132132 J^{t+1 } &=& \sum _{i, c_i^t \neq c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t+1 }}^t} + J^{t+1 } \sum _{i, c_i^t = c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t+1 }}^t} \\
133- J^{t+1 } &\infegal & \sum _{i, c_i^t \neq c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t}}^t} + \sum _{i, c_i^t = c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t}}^t} \\
134- J^{t+1 } &\infegal & I^t
133+ J^{t+1 } &\leqslant & \sum _{i, c_i^t \neq c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t}}^t} + \sum _{i, c_i^t = c_i^{t+1 }} \; d^2 \pa { X_i, G_{c_i^{t}}^t} \\
134+ J^{t+1 } &\leqslant & I^t
135135 \end {eqnarray}
136136
137137 Le lemme précédent appliqué à chacune des classes :math: `\ensemble {1 }{C}`,
138- permet d'affirmer que :math: `I^{t+1 } \infegal J^{t+1 }`.
138+ permet d'affirmer que :math: `I^{t+1 } \leqslant J^{t+1 }`.
139139Par conséquent, la suite :math: `\pa {I_t}_{t\supegal 0 }` est décroissante et minorée par
1401400, elle est donc convergente.
141141
@@ -242,7 +242,7 @@ par la suivante :
242242
243243 La fonction :math: `D_k` est définie par la distance du point :math: `x`
244244 au centre :math: `G_l` choisi parmi les :math: `k` premiers centres.
245- :math: `D_k(x) = \min _{1 \infegal l \infegal k} d(x - G_l)`.
245+ :math: `D_k(x) = \min _{1 \leqslant l \leqslant k} d(x - G_l)`.
246246
247247 La suite de l'algorithme *k-means++ * reprend les mêmes étapes que
248248 :ref: `k-means <kmeans_def_algo >`.
@@ -257,7 +257,7 @@ centres déjà choisis. L'article montre que :
257257 On définit l'inertie par
258258 :math: `J_(X) = \sum _{i=1 }^{P} \; \min _G d^2 (X_i, G)`.
259259 Si :math: `J_{OPT}` définit l'inertie optimale alors
260- :math: `\esp {J(X)} \infegal 8 (\ln C + 2 ) J_{OPT}(X)`.
260+ :math: `\esp {J(X)} \leqslant 8 (\ln C + 2 ) J_{OPT}(X)`.
261261
262262La démonstration est disponible dans l'article [Arthur2007 ]_.
263263
@@ -314,7 +314,7 @@ Estimation de probabilités
314314==========================
315315
316316A partir de cette classification en :math: `C` classes, on construit un
317- vecteur de probabilités pour chaque point :math: `\pa {X_{i}}_{1 \infegal i \infegal P}`
317+ vecteur de probabilités pour chaque point :math: `\pa {X_{i}}_{1 \leqslant i \leqslant P}`
318318en supposant que la loi de :math: `X` sachant sa classe :math: `c_X` est une loi
319319normale multidimensionnelle. La classe de :math: `X_i` est
320320notée :math: `c_i`. On peut alors écrire :
@@ -500,7 +500,7 @@ L'inertie de ce nuage de points est définie par :
500500
501501 On définit tout d'abord une distance
502502:math: `\alpha \in \mathbb {R}^+`, puis l'ensemble
503- :math: `V\pa {y,\alpha } = \acc { z \in Y \sac d\pa {y,z} \infegal \alpha }`,
503+ :math: `V\pa {y,\alpha } = \acc { z \in Y \sac d\pa {y,z} \leqslant \alpha }`,
504504:math: `V\pa {y,\alpha }` est donc l'ensemble des voisins des
505505centres dont la distance avec :math: `y` est inférieur à :math: `\alpha `.
506506L'article [Kothari1999 ]_ propose de minimiser le coût :math: `J\pa {\alpha }`
@@ -596,7 +596,7 @@ Il s'appuie sur la méthode des multiplicateurs de Lagrange.
596596
597597 | for i in :math:`1..N`
598598 | Mise à jour d'après le premier terme de la fonction de coût :math:`J\pa{\alpha}`.
599- | :math:`w \longleftarrow \underset{1 \infegal l \infegal K}{\arg \min} \; \norme{x_i - y_l}^2`
599+ | :math:`w \longleftarrow \underset{1 \leqslant l \leqslant K}{\arg \min} \; \norme{x_i - y_l}^2`
600600 | :math:`z^1_w \longleftarrow z^1_w + \eta \pa{ x_i - y_w}`
601601 | :math:`c^1_w \longleftarrow c^1_w + 1`
602602 |
@@ -617,7 +617,7 @@ Il s'appuie sur la méthode des multiplicateurs de Lagrange.
617617 :math: `y_k`, retour à l'étape précédente. Sinon, tous les couples de classes :math: `\pa {i,j}`
618618 vérifiant :math: `\norme {y_i - y_j} > \alpha ` sont fusionnés :
619619 :math: `\alpha \longleftarrow \alpha + \alpha _t`.
620- Si :math: `\alpha \infegal \alpha2 `, retour à l'étape de préparation.
620+ Si :math: `\alpha \leqslant \alpha2 `, retour à l'étape de préparation.
621621
622622 *terminaison *
623623
@@ -652,7 +652,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
652652
653653.. math ::
654654
655- I = \sum _{i=1 }^{N}\sum _{k=1 }^{K} \indicatrice { i = \underset {1 \infegal j \infegal N}{\arg \max }
655+ I = \sum _{i=1 }^{N}\sum _{k=1 }^{K} \indicatrice { i = \underset {1 \leqslant j \leqslant N}{\arg \max }
656656 G\pa {X_k, \mu _j,\Sigma _j} } \; \ln \cro { p_i G\pa { X_k, \mu _i, \Sigma _i } }
657657
658658 .. mathdef ::
@@ -666,7 +666,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
666666 *initialisation *
667667
668668 :math: `t \longleftarrow 0 `.
669- Les paramètres :math: `\acc {p_i^0 , \mu _i^0 , \Sigma _i^0 \sac 1 \infegal i \infegal N}` sont initialisés
669+ Les paramètres :math: `\acc {p_i^0 , \mu _i^0 , \Sigma _i^0 \sac 1 \leqslant i \leqslant N}` sont initialisés
670670 grâce à un algorithme des :ref: `k-means <kmeans_def_algo >` ou :ref: `FSCL <label_kmeans_fscl >`.
671671 :math: `\forall i, \; p_i^0 = \frac {1 }{N}` et :math: `\beta _i^0 = 0 `.
672672
@@ -676,7 +676,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
676676
677677 .. math ::
678678
679- i = \underset {1 \infegal i \infegal N}{\arg \min } \; G\pa {X_k, \mu _i^t, \Sigma _i^t}
679+ i = \underset {1 \leqslant i \leqslant N}{\arg \min } \; G\pa {X_k, \mu _i^t, \Sigma _i^t}
680680
681681 | for i in :math:`1..N`
682682 | :math:`\mu_i^{t+1} = \mu_i^t + \eta \, \pa{\Sigma_i^t}^{-1} \, \pa{ X_k - \mu_i^t}`
@@ -690,7 +690,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
690690
691691 *terminaison *
692692
693- Tant que :math: `\underset {1 \infegal i \infegal N}{\arg \min } \; G\pa {X_k, \mu _i^t, \Sigma _i^t}`
693+ Tant que :math: `\underset {1 \leqslant i \leqslant N}{\arg \min } \; G\pa {X_k, \mu _i^t, \Sigma _i^t}`
694694 change pour au moins un des points :math: `X_k`.
695695
696696Lors de la mise à jour de :math: `\Sigma ^{-1 }`,
0 commit comments