Skip to content

Commit 8f557c5

Browse files
committed
replace infegal by leqslant
1 parent 5d2706f commit 8f557c5

39 files changed

+304
-316
lines changed

CHANGELOGS.rst

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -4,11 +4,11 @@ Change Logs
44
0.5.0
55
+++++
66

7-
* :pr:`42`: quantization
8-
* :pr:`39`: refactoring, use black, better documentation
9-
107
0.4.0
118
=====
9+
10+
* :pr:`42`: quantization
11+
* :pr:`39`: refactoring, use black, better documentation
1212
* :pr:`32`: Improves usability of distance_matching_graphs_paths (2021-08-10)
1313
* :pr:`31`: Links to notebooks are broken, notebooks slides are not working. (2021-03-31)
1414
* :pr:`30`: Fixes #26, implements a compact architecture (2021-01-23)

_doc/c_algo/edit_distance.rst

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -264,7 +264,7 @@ tels que :math:`d\pa{m_1,m_2} = d\pa{N_2,N_1}` alors :
264264
Il reste à démontrer l'inégalité triangulaire.
265265
Soient trois mots :math:`\pa{m_1,m_2,m_3}`,
266266
on veut démontrer que
267-
:math:`d\pa{m_1,m_3} \infegal d\pa{m_1,m_2} + d \pa{m_2,m_3}`.
267+
:math:`d\pa{m_1,m_3} \leqslant d\pa{m_1,m_2} + d \pa{m_2,m_3}`.
268268
On définit :
269269

270270
.. math::
@@ -292,15 +292,15 @@ tels que :
292292
\end{eqnarray*}
293293
294294
Or comme la fonction :math:`c` est une distance sur :math:`\mathcal{C}'`, on peut affirmer que :
295-
:math:`d\pa{M_1,M_3} \infegal d\pa{M_1,M_2} + d \pa{M_2,M_3}`.
295+
:math:`d\pa{M_1,M_3} \leqslant d\pa{M_1,M_2} + d \pa{M_2,M_3}`.
296296
D'où :
297297

298298
.. math::
299299
:nowrap:
300300
:label: edit_demo_eq_3
301301
302302
\begin{eqnarray*}
303-
d\pa{m_1,m_3} \infegal d\pa{m_1,m_2} + d \pa{m_2,m_3}
303+
d\pa{m_1,m_3} \leqslant d\pa{m_1,m_2} + d \pa{m_2,m_3}
304304
\end{eqnarray*}
305305
306306
Les assertions :eq:`1 <edit_demo_eq_1>`, :eq:`2 <edit_demo_eq_2>`, :eq:`3 <edit_demo_eq_3>`
@@ -410,7 +410,7 @@ La démonstration s'effectue par récurrence, la définition :ref:`3 <definition
410410
est bien sûr équivalente :ref:`1 <defition_distance_edition_1>`
411411
pour des mots de longueur un. On suppose donc que ce résultat est
412412
vrai pour un couple de mots :math:`\pa{m_1,m_2}` de longueur :math:`\pa{l_1,l_2}`
413-
vérifiant :math:`l_1 \infegal i` et `l_2 \infegal j` avec au plus une égalité.
413+
vérifiant :math:`l_1 \leqslant i` et `l_2 \leqslant j` avec au plus une égalité.
414414
Soit :math:`m` un mot, on note :math:`n` le nombre de lettres qu'il contient.
415415
On note :math:`m\left( l\right)` le mot formé des :math:`l` premières lettres de :math:`m`.
416416
Alors :

_doc/c_clus/gauss_mixture.rst

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@ Algorithme EM
1717

1818
Soit :math:`X` une variable aléatoire d'un espace vectoriel de dimension :math:`d`, :math:`X`
1919
suit un la loi d'un mélange de :math:`N` lois gaussiennes de paramètres
20-
:math:`\pa{\mu_i, \Sigma_i}_ {1 \infegal i \infegal N}`,
20+
:math:`\pa{\mu_i, \Sigma_i}_ {1 \leqslant i \leqslant N}`,
2121
alors la densité :math:`f` de :math:`X` est de la forme :
2222

2323
.. math::
@@ -92,7 +92,7 @@ on suppose que :math:`X` suit la loi du mélange suivant :
9292
9393
f\pa{X \sac \theta} = \sum_{i=1}^{k} \alpha_i \, f\pa{X \sac \theta_i}
9494
95-
Avec : :math:`\theta = \pa{\alpha_i,\theta_i}_{1 \infegal i \infegal k}, \; \forall i, \; \alpha_i \supegal 0`
95+
Avec : :math:`\theta = \pa{\alpha_i,\theta_i}_{1 \leqslant i \leqslant k}, \; \forall i, \; \alpha_i \supegal 0`
9696
et :math:`\sum_{i=1}^{k} \alpha_i = 1`.
9797

9898
On définit pour une classe :math:`m` la probabilité
@@ -184,7 +184,7 @@ est dérivé de l'algorithme EM :
184184
P_a = \min \acc{ \exp\cro{ \frac{ L\pa{ \theta''_t, X} - L\pa{ \theta_t, X} }{\gamma} }, 1}
185185
186186
On génére aléatoirement une variable :math:`u \sim U\cro{0,1}`,
187-
si :math:`u \infegal P_a`, alors les paramètres :math:`\theta''_t`
187+
si :math:`u \leqslant P_a`, alors les paramètres :math:`\theta''_t`
188188
sont validés. :math:`\hat{\theta}_t \longleftarrow \theta''_t`
189189
et retour à l'étape d'expectation. Dans le cas contraire, les paramètres
190190
:math:`\theta''_t` sont refusés et retour à l'étape précédente.

_doc/c_clus/kmeans.rst

Lines changed: 13 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -130,12 +130,12 @@ On en déduit que :
130130
131131
\begin{eqnarray}
132132
J^{t+1} &=& \sum_{i, c_i^t \neq c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t+1}}^t} + J^{t+1} \sum_{i, c_i^t = c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t+1}}^t} \\
133-
J^{t+1} &\infegal& \sum_{i, c_i^t \neq c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t}}^t} + \sum_{i, c_i^t = c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t}}^t} \\
134-
J^{t+1} &\infegal& I^t
133+
J^{t+1} &\leqslant& \sum_{i, c_i^t \neq c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t}}^t} + \sum_{i, c_i^t = c_i^{t+1}} \; d^2\pa{ X_i, G_{c_i^{t}}^t} \\
134+
J^{t+1} &\leqslant& I^t
135135
\end{eqnarray}
136136
137137
Le lemme précédent appliqué à chacune des classes :math:`\ensemble{1}{C}`,
138-
permet d'affirmer que :math:`I^{t+1} \infegal J^{t+1}`.
138+
permet d'affirmer que :math:`I^{t+1} \leqslant J^{t+1}`.
139139
Par conséquent, la suite :math:`\pa{I_t}_{t\supegal 0}` est décroissante et minorée par
140140
0, elle est donc convergente.
141141

@@ -242,7 +242,7 @@ par la suivante :
242242

243243
La fonction :math:`D_k` est définie par la distance du point :math:`x`
244244
au centre :math:`G_l` choisi parmi les :math:`k` premiers centres.
245-
:math:`D_k(x) = \min_{1 \infegal l \infegal k} d(x - G_l)`.
245+
:math:`D_k(x) = \min_{1 \leqslant l \leqslant k} d(x - G_l)`.
246246

247247
La suite de l'algorithme *k-means++* reprend les mêmes étapes que
248248
:ref:`k-means <kmeans_def_algo>`.
@@ -257,7 +257,7 @@ centres déjà choisis. L'article montre que :
257257
On définit l'inertie par
258258
:math:`J_(X) = \sum_{i=1}^{P} \; \min_G d^2(X_i, G)`.
259259
Si :math:`J_{OPT}` définit l'inertie optimale alors
260-
:math:`\esp{J(X)} \infegal 8 (\ln C + 2) J_{OPT}(X)`.
260+
:math:`\esp{J(X)} \leqslant 8 (\ln C + 2) J_{OPT}(X)`.
261261

262262
La démonstration est disponible dans l'article [Arthur2007]_.
263263

@@ -314,7 +314,7 @@ Estimation de probabilités
314314
==========================
315315

316316
A partir de cette classification en :math:`C` classes, on construit un
317-
vecteur de probabilités pour chaque point :math:`\pa{X_{i}}_{1 \infegal i \infegal P}`
317+
vecteur de probabilités pour chaque point :math:`\pa{X_{i}}_{1 \leqslant i \leqslant P}`
318318
en supposant que la loi de :math:`X` sachant sa classe :math:`c_X` est une loi
319319
normale multidimensionnelle. La classe de :math:`X_i` est
320320
notée :math:`c_i`. On peut alors écrire :
@@ -500,7 +500,7 @@ L'inertie de ce nuage de points est définie par :
500500
501501
On définit tout d'abord une distance
502502
:math:`\alpha \in \mathbb{R}^+`, puis l'ensemble
503-
:math:`V\pa{y,\alpha} = \acc{ z \in Y \sac d\pa{y,z} \infegal \alpha }`,
503+
:math:`V\pa{y,\alpha} = \acc{ z \in Y \sac d\pa{y,z} \leqslant \alpha }`,
504504
:math:`V\pa{y,\alpha}` est donc l'ensemble des voisins des
505505
centres dont la distance avec :math:`y` est inférieur à :math:`\alpha`.
506506
L'article [Kothari1999]_ propose de minimiser le coût :math:`J\pa{\alpha}`
@@ -596,7 +596,7 @@ Il s'appuie sur la méthode des multiplicateurs de Lagrange.
596596

597597
| for i in :math:`1..N`
598598
| Mise à jour d'après le premier terme de la fonction de coût :math:`J\pa{\alpha}`.
599-
| :math:`w \longleftarrow \underset{1 \infegal l \infegal K}{\arg \min} \; \norme{x_i - y_l}^2`
599+
| :math:`w \longleftarrow \underset{1 \leqslant l \leqslant K}{\arg \min} \; \norme{x_i - y_l}^2`
600600
| :math:`z^1_w \longleftarrow z^1_w + \eta \pa{ x_i - y_w}`
601601
| :math:`c^1_w \longleftarrow c^1_w + 1`
602602
|
@@ -617,7 +617,7 @@ Il s'appuie sur la méthode des multiplicateurs de Lagrange.
617617
:math:`y_k`, retour à l'étape précédente. Sinon, tous les couples de classes :math:`\pa{i,j}`
618618
vérifiant :math:`\norme{y_i - y_j} > \alpha` sont fusionnés :
619619
:math:`\alpha \longleftarrow \alpha + \alpha_t`.
620-
Si :math:`\alpha \infegal \alpha2`, retour à l'étape de préparation.
620+
Si :math:`\alpha \leqslant \alpha2`, retour à l'étape de préparation.
621621

622622
*terminaison*
623623

@@ -652,7 +652,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
652652

653653
.. math::
654654
655-
I = \sum_{i=1}^{N}\sum_{k=1}^{K} \indicatrice{ i = \underset{1 \infegal j \infegal N}{\arg \max}
655+
I = \sum_{i=1}^{N}\sum_{k=1}^{K} \indicatrice{ i = \underset{1 \leqslant j \leqslant N}{\arg \max}
656656
G\pa{X_k, \mu_j,\Sigma_j} } \; \ln \cro{ p_i G\pa{ X_k, \mu_i, \Sigma_i } }
657657
658658
.. mathdef::
@@ -666,7 +666,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
666666
*initialisation*
667667

668668
:math:`t \longleftarrow 0`.
669-
Les paramètres :math:`\acc{p_i^0, \mu_i^0, \Sigma_i^0 \sac 1 \infegal i \infegal N}` sont initialisés
669+
Les paramètres :math:`\acc{p_i^0, \mu_i^0, \Sigma_i^0 \sac 1 \leqslant i \leqslant N}` sont initialisés
670670
grâce à un algorithme des :ref:`k-means <kmeans_def_algo>` ou :ref:`FSCL <label_kmeans_fscl>`.
671671
:math:`\forall i, \; p_i^0 = \frac{1}{N}` et :math:`\beta_i^0 = 0`.
672672

@@ -676,7 +676,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
676676

677677
.. math::
678678
679-
i = \underset{1 \infegal i \infegal N}{\arg \min} \; G\pa{X_k, \mu_i^t, \Sigma_i^t}
679+
i = \underset{1 \leqslant i \leqslant N}{\arg \min} \; G\pa{X_k, \mu_i^t, \Sigma_i^t}
680680
681681
| for i in :math:`1..N`
682682
| :math:`\mu_i^{t+1} = \mu_i^t + \eta \, \pa{\Sigma_i^t}^{-1} \, \pa{ X_k - \mu_i^t}`
@@ -690,7 +690,7 @@ L'algorithme qui suit a pour objectif de minimiser la quantité pour un échanti
690690
691691
*terminaison*
692692

693-
Tant que :math:`\underset{1 \infegal i \infegal N}{\arg \min} \; G\pa{X_k, \mu_i^t, \Sigma_i^t}`
693+
Tant que :math:`\underset{1 \leqslant i \leqslant N}{\arg \min} \; G\pa{X_k, \mu_i^t, \Sigma_i^t}`
694694
change pour au moins un des points :math:`X_k`.
695695

696696
Lors de la mise à jour de :math:`\Sigma^{-1}`,

_doc/c_clus/kohonen.rst

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -58,7 +58,7 @@ linéaire, rectangulaire, triangulaire.
5858
On choisi aléatoirement un points du nuage
5959
:math:`X_i` puis on définit le neurone
6060
:math:`\mu_{k^*}^t` de telle sorte que :
61-
:math:`\norme{ \mu_{k^*}^t - X_i} = \underset{1 \infegal j \infegal N}{\min } \; \norme{ \mu_j^t - X_i }`.
61+
:math:`\norme{ \mu_{k^*}^t - X_i} = \underset{1 \leqslant j \leqslant N}{\min } \; \norme{ \mu_j^t - X_i }`.
6262

6363
*mise à jour*
6464

@@ -153,7 +153,7 @@ L'article définit ensuite la densité interne pour :math:`C` classes :
153153
154154
\begin{eqnarray*}
155155
D_{int} (C) &=& \frac{1}{C} \; \sum_{k=1}^{C} \; \sum_{i=1}^{N} \; \sum_{j=1}^{N} \;
156-
a_{ik} a_{jk} \indicatrice{ \norme{ X_i - X_j} \infegal \sigma }
156+
a_{ik} a_{jk} \indicatrice{ \norme{ X_i - X_j} \leqslant \sigma }
157157
\end{eqnarray*}
158158
159159
On définit la distance :math:`d^*_{kl}` pour :math:`\pa{k,l} \in \ensemble{1}{C}^2`,
@@ -175,7 +175,7 @@ La densité externe est alors définie en fonction du nombre de classes :math:`C
175175
\begin{eqnarray*}
176176
D_{ext} (C) = \sum_{k=1}^{C} \; \sum_{l=1}^{C} \; \cro{ \frac{ d_{kl} } { \sigma\pa{k} \sigma\pa{l} } \;
177177
\sum_{i=1}^{N} \; \indicatrice{ a_{ik} + a_{il} > 0 } \indicatrice{ \norme{ X_i - \frac{X_{i^*}^{kl} + X_{j^*}^{kl}}{2} }
178-
\infegal \frac{\sigma\pa{k} +\sigma\pa{l}}{2} } }
178+
\leqslant \frac{\sigma\pa{k} +\sigma\pa{l}}{2} } }
179179
\end{eqnarray*}
180180
181181
L'article définit ensuite la séparabilité en fonction du nombre de classes :math:`C` :

_doc/c_garden/file_dattente.rst

Lines changed: 7 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -83,7 +83,7 @@ pas du temps.
8383
:nowrap:
8484
8585
\begin{eqnarray}
86-
f(t) &=& \mu \; e^{- \mu t} \text{ et } \pr {X \infegal t} =
86+
f(t) &=& \mu \; e^{- \mu t} \text{ et } \pr {X \leqslant t} =
8787
\int_0^t \mu \; e^{- \mu x} dx = 1 - e^{-\mu t}
8888
\end{eqnarray}
8989
@@ -117,7 +117,7 @@ suivant une loi exponentielle, alors :
117117
:nowrap:
118118
119119
\begin{eqnarray*}
120-
\pr{B(x,t,dt)} &=& \pr{ D \infegal t+dt-x \sac D > t-x } \\
120+
\pr{B(x,t,dt)} &=& \pr{ D \leqslant t+dt-x \sac D > t-x } \\
121121
&=& \frac{ \pr{ t+dt-x \supegal D > t-x } } { \pr{ D > t-x }} \\
122122
&=& \frac{ \int_{t-x}^{t+dt-x} \mu e^{-\mu u} du } { \int_{t-x}^{\infty} \mu e^{-\mu u} du }
123123
= \frac{ e^{- \mu (t-x) } - e^{- \mu (t-x+dt) } } { e^{-\mu (t-x) }} \\
@@ -250,16 +250,16 @@ la probabilité qu'une personne parmi :math:`k` quitte un guichet est :
250250
:nowrap:
251251
252252
\begin{eqnarray*}
253-
\pr{ \min \ensemble{D_1}{D_k} \infegal dt } &=& 1 - \pr {\min \ensemble{D_1}{D_k} > dt} \\
253+
\pr{ \min \ensemble{D_1}{D_k} \leqslant dt } &=& 1 - \pr {\min \ensemble{D_1}{D_k} > dt} \\
254254
&=& 1 - \cro{\prod_{n=1}^{k} \pr {D_n > dt}} \\
255-
&=& 1 - \cro{\prod_{n=1}^{k} 1 - \pr {D_n \infegal dt}} \\
255+
&=& 1 - \cro{\prod_{n=1}^{k} 1 - \pr {D_n \leqslant dt}} \\
256256
&=& 1 - \cro{\prod_{n=1}^{k} e^{-\mu dt}} \\
257257
&=& 1 - e^{- k\mu dt} \sim k \mu dt + o(dt)
258258
\end{eqnarray*}
259259
260260
Pour déterminer les probabilités :math:`\pa{p_n}_n`, on applique le
261261
même raisonnement que pour un système :math:`M/M/1` en distinguant
262-
les cas :math:`n \infegal S` et :math:`n > S`. On adapte la récurrence
262+
les cas :math:`n \leqslant S` et :math:`n > S`. On adapte la récurrence
263263
donnée par le système d'équations :eq:`systeme_mm1` au cas :math:`M/M/S` :
264264

265265
.. math::
@@ -269,7 +269,7 @@ donnée par le système d'équations :eq:`systeme_mm1` au cas :math:`M/M/S` :
269269
\begin{eqnarray*}
270270
&& \left \{ \begin{array}{lll}
271271
\mu p_1 - \lambda p_0 &=& 0 \\
272-
\lambda p_{n-1} + \pa{n+1} \mu p_{n+1} - \pa {n \mu + \lambda } p_n &=& 0 \text{ si } 1 \infegal n < S \\
272+
\lambda p_{n-1} + \pa{n+1} \mu p_{n+1} - \pa {n \mu + \lambda } p_n &=& 0 \text{ si } 1 \leqslant n < S \\
273273
\lambda p_{n-1} + S \mu p_{n+1} - \pa { S \mu + \lambda } p_n &=& 0 \text{ si } n \supegal S
274274
\end{array}\right.
275275
\end{eqnarray*}
@@ -453,7 +453,7 @@ Cette fonction vérifie :math:`F_{\mu}^{-1}\pa{F_{\mu}(x)} = 1`.
453453
Or si :math:`U` est une variable aléatoire uniforme sur
454454
:math:`\cro{0,1}`, alors la variable :math:`V = F_{\mu}^{-1}(U)`
455455
suit la loi exponentielle avec :math:`\mu` pour paramètre.
456-
Effectivement, :math:`\pr{ V \infegal t} = \pr{ F_{\mu}^{-1}(U) \infegal t} = \pr{U \infegal F_{\mu}(t)} = F_{\mu}(x)`.
456+
Effectivement, :math:`\pr{ V \leqslant t} = \pr{ F_{\mu}^{-1}(U) \leqslant t} = \pr{U \leqslant F_{\mu}(t)} = F_{\mu}(x)`.
457457
La fonction de répartition de la variable :math:`V` est :math:`F_{\mu}`,
458458
:math:`V` est donc une loi exponentielle de paramètre :math:`\mu`.
459459
La première fonction simule une variable exponentielle de paramètre :math:`\mu` :

_doc/c_garden/strategie_avec_alea.rst

Lines changed: 7 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -166,17 +166,17 @@ Pour cela, on utilise deux propriétés sur les lois exponentielles.
166166

167167
La démonstration est courte.
168168
Soit :math:`X` une variable aléatoire de densité :math:`f`,
169-
par définition, :math:`\pr{X \infegal x} = F(x)`. Soit :math:`U` une
169+
par définition, :math:`\pr{X \leqslant x} = F(x)`. Soit :math:`U` une
170170
variable aléatoire uniformément distribué sur :math:`\cro{0,1}`, alors :
171171

172172
.. math::
173173
:nowrap:
174174
175175
\begin{eqnarray*}
176-
\forall u \in \cro{0,1}, \; \pr{U \infegal u} &=& u \\
177-
\Longleftrightarrow \pr{F^{-1}(U)\infegal F^{-1}(u)} &=& u \\
178-
\Longleftrightarrow \pr{F^{-1}(U)\infegal F^{-1}(F(t))} &=& F(t) \\
179-
\Longleftrightarrow \pr{F^{-1}(U)\infegal t} &=& F(t)
176+
\forall u \in \cro{0,1}, \; \pr{U \leqslant u} &=& u \\
177+
\Longleftrightarrow \pr{F^{-1}(U)\leqslant F^{-1}(u)} &=& u \\
178+
\Longleftrightarrow \pr{F^{-1}(U)\leqslant F^{-1}(F(t))} &=& F(t) \\
179+
\Longleftrightarrow \pr{F^{-1}(U)\leqslant t} &=& F(t)
180180
\end{eqnarray*}
181181
182182
Si la fonction :math:`F` n'est pas strictement croissante,
@@ -246,12 +246,12 @@ de la somme est celle d'une loi Gamma. On suppose que
246246
Ces lignes démontrent le théorème.
247247
On démontre maintenant :ref:`simulation d'une loi de Poisson <theoreme_simulation_poisson>`.
248248
La démonstration repose sur le fait que
249-
:math:`\pr{N(t) \supegal n} \Longleftrightarrow \pr{S_n \infegal t}`.
249+
:math:`\pr{N(t) \supegal n} \Longleftrightarrow \pr{S_n \leqslant t}`.
250250
On en déduit que :
251251

252252
.. math::
253253
254-
\pr{N(t) = n} = \pr{N(t) \supegal n} - \pr{N(t) \supegal n+1} = \pr{S_n \infegal t} - \pr{S_{n+1} \infegal t}
254+
\pr{N(t) = n} = \pr{N(t) \supegal n} - \pr{N(t) \supegal n+1} = \pr{S_n \leqslant t} - \pr{S_{n+1} \leqslant t}
255255
256256
Or d'après le théorème :ref:`somme de loi exponentielle iid <theoreme_convolution_poisson>`,
257257
:math:`S_n` suit une loi :math:`Gamma(n,\lambda)`.

_doc/c_metric/pvalues.rst

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -26,7 +26,7 @@ Howerver p-Values and confidence interval are similar: they tell you whether
2626
or not a metric difference is significant.
2727

2828
Usually, it starts from a set of identically distributed random variables
29-
:math:`(X_i)_{1 \infegal i \infegal N}`. We then estimate the average
29+
:math:`(X_i)_{1 \leqslant i \leqslant N}`. We then estimate the average
3030
:math:`\widehat{\theta}_N = \frac{1}{N} \sum_{i=1}^{N} X_i` and we ask
3131
the question is :math:`\widehat{\theta}_N` null? In others terms, we
3232
want to know if the average is significantly different from zero. If
@@ -48,7 +48,7 @@ Not all of them have a standard deviation. For example, if :math:`X` follows a
4848
This remark also concerns every distribution known as heavy tail distribution.
4949

5050
If :math:`Y \sim \loinormale{0}{\sigma}`, then we have
51-
:math:`\pr{\abs{Y} \infegal 1.96} = 0.95`. That is why we can say:
51+
:math:`\pr{\abs{Y} \leqslant 1.96} = 0.95`. That is why we can say:
5252

5353
.. math::
5454
:nowrap:
@@ -270,7 +270,7 @@ density function of :math:`X`. We also consider an interval
270270
:nowrap:
271271
272272
\begin{eqnarray*}
273-
\pr{X \in I} = \pr{ \abs{X} \infegal a } = \pr{ f(X) \supegal f(a)}
273+
\pr{X \in I} = \pr{ \abs{X} \leqslant a } = \pr{ f(X) \supegal f(a)}
274274
\end{eqnarray*}
275275
276276
This is true because :math:`f` is decreasing for :math:`x>0`.

0 commit comments

Comments
 (0)