Skip to content

Commit 4990844

Browse files
committed
style
1 parent 64fc589 commit 4990844

File tree

4 files changed

+11
-34
lines changed

4 files changed

+11
-34
lines changed

_doc/articles/2025/2025-03-01-route2025.rst

Lines changed: 1 addition & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -122,8 +122,7 @@ Séance 4 (21/2)
122122

123123
**Prétraitement**
124124

125-
* Dates, Catégories : `category_encoders <https://contrib.scikit-learn.org/category_encoders/>`,
126-
`skrub <https://skrub-data.org/stable/>`_,
125+
* Dates, Catégories : :epkg:`category_encoders`, `skrub <https://skrub-data.org/stable/>`_,
127126
:ref:`Prétraitement des catégories <nbl-practice-ml-pretraitement_cat>`
128127
* Son : :epkg:`librosa`, voir :ref:`Prétraitement du son <nbl-practice-ml-pretraitement_son>`
129128
* Image : :epkg:`scikit-image`, voir :ref:`Prétraitement d'une image <nbl-practice-ml-pretraitement_image>`

_doc/conf.py

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -205,6 +205,7 @@
205205
"C++": "https://fr.wikipedia.org/wiki/C%2B%2B",
206206
"cloudpickle": "https://github.com/cloudpipe/cloudpickle",
207207
"Bresenham": "https://fr.wikipedia.org/wiki/Algorithme_de_trac%C3%A9_de_segment_de_Bresenham",
208+
"category_encoders": "https://contrib.scikit-learn.org/category_encoders/",
208209
"copy": "https://docs.python.org/3/library/copy.html?highlight=copy#copy.copy",
209210
"cProfile.Profile": "https://docs.python.org/3/library/profile.html#profile.Profile",
210211
"Custom Criterion for DecisionTreeRegressor": "https://sdpython.github.io/doc/mlinsights/dev/auto_examples/plot_piecewise_linear_regression_criterion.html",

_doc/practice/ml/pretraitement_image.ipynb

Lines changed: 8 additions & 19 deletions
Original file line numberDiff line numberDiff line change
@@ -200,9 +200,7 @@
200200
"# Charger un modèle léger (ResNet)\n",
201201
"MODEL_NAME = \"google/mobilenet_v2_1.0_224\"\n",
202202
"extractor = AutoFeatureExtractor.from_pretrained(MODEL_NAME)\n",
203-
"model = AutoModel.from_pretrained(MODEL_NAME)\n",
204-
"# image_processor = AutoImageProcessor.from_pretrained(\"google/mobilenet_v2_1.0_224\")\n",
205-
"# model = MobileNetV2Model.from_pretrained(\"google/mobilenet_v2_1.0_224\")"
203+
"model = AutoModel.from_pretrained(MODEL_NAME)"
206204
]
207205
},
208206
{
@@ -236,32 +234,23 @@
236234
]
237235
},
238236
{
239-
"cell_type": "code",
240-
"execution_count": null,
237+
"cell_type": "markdown",
241238
"metadata": {},
242-
"outputs": [],
243239
"source": [
244-
"Ces modèles sont constitués de plusieurs couches."
240+
"Ces modèles sont constitués de plusieurs couches. Il est possible d'utiliser n'importe laquelle de ces couches pour features. Plus la couche est proche du résultat, plus les features sont loin de l'image et spécialisées pour la tâche pour laquelle ce modèle a été appris."
245241
]
242+
},
243+
{
244+
"cell_type": "markdown",
245+
"metadata": {},
246+
"source": []
246247
}
247248
],
248249
"metadata": {
249250
"kernelspec": {
250251
"display_name": "Python 3 (ipykernel)",
251252
"language": "python",
252253
"name": "python3"
253-
},
254-
"language_info": {
255-
"codemirror_mode": {
256-
"name": "ipython",
257-
"version": 3
258-
},
259-
"file_extension": ".py",
260-
"mimetype": "text/x-python",
261-
"name": "python",
262-
"nbconvert_exporter": "python",
263-
"pygments_lexer": "ipython3",
264-
"version": "3.12.8"
265254
}
266255
},
267256
"nbformat": 4,

_doc/practice/ml/pretraitement_texte.ipynb

Lines changed: 1 addition & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@
1717
"\n",
1818
"C'est le début de tout. La première étape consiste à découper un texte en token (caractères, mots, ...). Le plus souvent, c'est en mot. Chaque mot reçoit un identifiant. Une phrase est transformée en une liste d'entiers.\n",
1919
"\n",
20-
"L'approche la plus simple consiste ensuite un vecteur binaire pour chaque mot $(v_1, ..., v_i, ..., v_n)$. $n$ est le nombre de mots reconnus par le modèle. $v_i in \\{ 0, 1 \\}$, il vaut 1 si i est égale à son numéro, 0 sinon. Chaque vecteur ne contient qu'un seul un.\n",
20+
"L'approche la plus simple consiste ensuite un vecteur binaire pour chaque mot $(v_1, ..., v_i, ..., v_n)$. $n$ est le nombre de mots reconnus par le modèle. $v_i \\in \\{ 0, 1 \\}$, il vaut 1 si i est égale à son numéro, 0 sinon. Chaque vecteur ne contient qu'un seul un.\n",
2121
"\n",
2222
"On fait ensuite la somme pour obtenir un seul vecteur par phrase, quelle que soit la longueur de la phrase : [CountVectorizer](https://scikit-learn.org/stable/modules/generated/sklearn.feature_extraction.text.CountVectorizer.html)"
2323
]
@@ -535,18 +535,6 @@
535535
"display_name": "Python 3 (ipykernel)",
536536
"language": "python",
537537
"name": "python3"
538-
},
539-
"language_info": {
540-
"codemirror_mode": {
541-
"name": "ipython",
542-
"version": 3
543-
},
544-
"file_extension": ".py",
545-
"mimetype": "text/x-python",
546-
"name": "python",
547-
"nbconvert_exporter": "python",
548-
"pygments_lexer": "ipython3",
549-
"version": "3.12.8"
550538
}
551539
},
552540
"nbformat": 4,

0 commit comments

Comments
 (0)