Skip to content

Commit 5175154

Browse files
committed
Switch to English documentation
1 parent 9e60065 commit 5175154

File tree

222 files changed

+5376
-5731
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

222 files changed

+5376
-5731
lines changed

README.rst

Lines changed: 23 additions & 22 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,5 @@
1-
Schnelleinstieg
2-
===============
1+
Quick start
2+
===========
33

44
|Contributors| |License| |Docs| |Pyup|
55

@@ -17,7 +17,7 @@ Schnelleinstieg
1717
Installation
1818
------------
1919

20-
#. Herunterladen und Auspacken:
20+
#. Download and unpack:
2121

2222
.. code-block:: console
2323
@@ -28,11 +28,11 @@ Installation
2828
creating: jupyter-tutorial-master/
2929
3030
31-
#. Pipenv installieren
31+
#. Install Pipenv
3232

33-
Siehe :doc:`Pipenv installieren </productive/envs/pipenv/install>`
33+
Pleas refer :doc:`Install Pipenv </productive/envs/pipenv/install>`
3434

35-
#. Python-Pakete installieren:
35+
#. Install Python packages:
3636

3737
.. code-block:: console
3838
@@ -46,8 +46,9 @@ Installation
4646
Enabling notebook extension highlighter/highlighter...
4747
- Validating: OK
4848
49-
#. Javascript- und CSS-Dateien der `Jupyter Notebook Extensions
50-
<https://jupyter-contrib-nbextensions.readthedocs.io/>`_ installieren
49+
#. Install the `Jupyter Notebook Extensions
50+
<https://jupyter-contrib-nbextensions.readthedocs.io/>` Javascript and CSS
51+
files:
5152

5253
.. code-block:: console
5354
@@ -63,7 +64,7 @@ Installation
6364
Enabling notebook extension latex_envs/latex_envs...
6465
- Validating: OK
6566
66-
#. HTML-Dokumentation erstellen:
67+
#. Create HTML documentation:
6768

6869
.. code-block:: console
6970
@@ -72,17 +73,17 @@ Installation
7273
$ bin/python -m pip install -r docs/constraints.txt
7374
$ bin/sphinx-build -ab html docs/ docs/_build/
7475
75-
#. PDF erstellen:
76+
#. Create a PDF:
7677

77-
Für die Erstellung von PDFs benötigt ihr weitere Pakete.
78+
For the creation of a PDF file you need additional packages.
7879

79-
Für Debian/Ubuntu erhaltet ihr diese mit:
80+
For Debian/Ubuntu you get this with:
8081

8182
.. code-block:: console
8283
8384
$ apt-get install texlive-latex-recommended texlive-latex-extra texlive-fonts-recommended latexmk
8485
85-
oder für macOS mit:
86+
or for macOS with:
8687

8788
.. code-block:: console
8889
@@ -95,7 +96,7 @@ Installation
9596
mktexlsr: Updating /usr/local/texlive/2020/texmf-dist/ls-R...
9697
mktexlsr: Done.
9798
98-
Anschließend könnt ihr ein PDF generieren mit:
99+
Then you can generate a PDF with:
99100

100101
.. code-block:: console
101102
@@ -106,9 +107,9 @@ Installation
106107
Run 'make' in that directory to run these through (pdf)latex
107108
108109
109-
Das PDF findet ihr anschließend in ``docs/_build/latex/jupytertutorial.pdf``.
110+
You can find the PDF at ``docs/_build/latex/jupytertutorial.pdf``.
110111

111-
Folge uns
112+
Follow us
112113
---------
113114

114115
* `GitHub <https://github.com/veit/jupyter-tutorial>`_
@@ -118,9 +119,9 @@ Folge uns
118119
Pull-Requests
119120
-------------
120121

121-
Wenn ihr Vorschläge für Verbesserungen und Ergänzungen habt, empfehle ich euch,
122-
einen `Fork <https://github.com/veit/jupyter-tutorial/fork>`_ meines
123-
`GitHub-Repository <https://github.com/veit/jupyter-tutorial/>`_ zu erstellen
124-
und darin eure Änderungen vorzunehmen. Gerne dürft ihr auch einen *Pull Request*
125-
stellen. Sofern die darin enthaltenen Änderungen klein und atomar sind, schaue ich
126-
mir eure Vorschläge gerne an.
122+
If you have suggestions for improvements and additions, I recommend that you
123+
create a `Fork <https://github.com/veit/jupyter-tutorial/fork>`_ of my `GitHub
124+
Repository <https://github.com/veit/jupyter-tutorial/>`_ and make your changes
125+
there. . You are also welcome to make a *pull request*. If the changes
126+
contained therein are small and atomic, I’ll be happy to look at your
127+
suggestions.

docs/clean-prep/dask-pipeline.ipynb

Lines changed: 10 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -4,28 +4,28 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Dask-Pipeline"
7+
"# Dask pipeline"
88
]
99
},
1010
{
1111
"cell_type": "markdown",
1212
"metadata": {},
1313
"source": [
14-
"## Beispiel: Tracking der Internationalen Raumstation mit Dask\n",
14+
"## Example: Tracking the International Space Station with Dask\n",
1515
"\n",
16-
"In diesem Notebook werden wir zwei APIs verwenden:\n",
16+
"In this notebook we will be using two APIs:\n",
1717
"\n",
1818
"1. [Google Maps Geocoder](https://developers.google.com/maps/documentation/geocoding/)\n",
1919
"2. [Open Notify API for ISS location](http://api.open-notify.org/)\n",
2020
"\n",
21-
"Wir werden sie verwenden, um den ISS-Standort und die nächste Durchlaufzeit in Bezug auf eine Liste von Städten zu verfolgen. Um unsere Diagramme zu erstellen und Daten intelligent zu parallelisieren, verwenden wir Dask, insbesondere [Dask Delayed](http://dask.pydata.org/en/latest/delayed.html)."
21+
"We will use them to keep track of the ISS location and next lead time in relation to a list of cities. To create our diagrams and intelligently parallelise data, we use Dask, especially [Dask Delayed](http://dask.pydata.org/en/latest/delayed.html)."
2222
]
2323
},
2424
{
2525
"cell_type": "markdown",
2626
"metadata": {},
2727
"source": [
28-
"### 1. Importe"
28+
"### 1. Imports"
2929
]
3030
},
3131
{
@@ -67,9 +67,9 @@
6767
"cell_type": "markdown",
6868
"metadata": {},
6969
"source": [
70-
"### 3. Latitude- und Longitude-Paare aus einer Liste von Städten\n",
70+
"### 3. Latitude and longitude pairs from a list of cities\n",
7171
"\n",
72-
"s.a. [Location APIs](https://locationiq.org)"
72+
"see also [Location APIs](https://locationiq.org)"
7373
]
7474
},
7575
{
@@ -187,7 +187,7 @@
187187
"cell_type": "markdown",
188188
"metadata": {},
189189
"source": [
190-
"## 4. ISS-Daten abrufen und Durchlaufzeiten der Städte ermitteln"
190+
"## 4. Retrieve ISS data and determine lead times for cities"
191191
]
192192
},
193193
{
@@ -309,7 +309,7 @@
309309
"cell_type": "markdown",
310310
"metadata": {},
311311
"source": [
312-
"## 5. Erstellen einer `delayed`-Pipeline"
312+
"## 5. Create a `delayed` pipeline"
313313
]
314314
},
315315
{
@@ -353,7 +353,7 @@
353353
"cell_type": "markdown",
354354
"metadata": {},
355355
"source": [
356-
"## 6. DAG anzeigen"
356+
"## 6. Show DAG"
357357
]
358358
},
359359
{

docs/clean-prep/deduplicate.ipynb

Lines changed: 12 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -4,18 +4,18 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Daten deduplizieren\n",
7+
"# Deduplicate data\n",
88
"\n",
9-
"In diesem Notebook deduplizieren wir Daten mithilfe der [Dedupe](https://dedupe.readthedocs.io/en/latest/)-Bibliothek, die ein flaches neuronales Netzwerk verwendet, um aus einem kleinen Training zu lernen.\n",
9+
"In this notebook, we deduplicate data using the [Dedupe](https://dedupe.readthedocs.io/en/latest/) library, which uses a flat neural network to learn from a small training session.\n",
1010
"\n",
11-
"Zudem haben dieselben Entwickler\\*innen [parserator](https://github.com/datamade/parserator) erstellt, mit dem Ihr Textfunktionen extrahieren und Eure eigenen Textextraktion trainieren könnt. "
11+
"In addition, the same developers have created [parserator](https://github.com/datamade/parserator) with which you can extract text functions and train your own text extraction."
1212
]
1313
},
1414
{
1515
"cell_type": "markdown",
1616
"metadata": {},
1717
"source": [
18-
"## 1. Importe"
18+
"## 1. Imports"
1919
]
2020
},
2121
{
@@ -43,7 +43,7 @@
4343
"cell_type": "markdown",
4444
"metadata": {},
4545
"source": [
46-
"## 2. Datenqualität überprüfen"
46+
"## 2. Check data quality"
4747
]
4848
},
4949
{
@@ -231,9 +231,9 @@
231231
"cell_type": "markdown",
232232
"metadata": {},
233233
"source": [
234-
"## 3. Dedupe konfigurieren\n",
234+
"## 3. Configure Dedupe\n",
235235
"\n",
236-
"Nun definieren wir die Felder, auf die bei der Deduplizierung geachtet werden soll und erstellen ein neues `deduper`-Objekt:"
236+
"Now we define the fields to be taken into account during deduplication and create a new `deduper` object:"
237237
]
238238
},
239239
{
@@ -300,7 +300,7 @@
300300
"cell_type": "markdown",
301301
"metadata": {},
302302
"source": [
303-
"## 4. Trainingsdaten erstellen"
303+
"## 4. Create training data"
304304
]
305305
},
306306
{
@@ -325,9 +325,9 @@
325325
"cell_type": "markdown",
326326
"metadata": {},
327327
"source": [
328-
"## 5. Aktives Lernen\n",
328+
"## 5. Active learning\n",
329329
"\n",
330-
"Wenn Dedupe ein Datensatzpaar findet, werdet Ihr gebeten, es als Duplikat zu kennzeichnen. Ihr könnt hierfürdie Tasten `y`, `n` und `u`, um Duplikate zu kennzeichnen. Drückt `f`, wenn Ihr fertig seid."
330+
"If Dedupe finds a pair of records, you will be asked to mark it as a duplicate. You can do this using the `y`, `n` and `u` buttons to mark duplicates. Push `f` when you're done."
331331
]
332332
},
333333
{
@@ -521,7 +521,7 @@
521521
"cell_type": "markdown",
522522
"metadata": {},
523523
"source": [
524-
"Wenn Ihr fertig seid, speichert Eure Trainingsdaten:"
524+
"When you’re done, save your training data:"
525525
]
526526
},
527527
{
@@ -538,7 +538,7 @@
538538
"cell_type": "markdown",
539539
"metadata": {},
540540
"source": [
541-
"Speichert auch Eure Gewichte und Prädikate. Wenn `settings_file` bereits existiert, werden beim nächsten Durchlauf Training und aktives Lernen übersprungen:"
541+
"Also save your weights and predicates. If `settings_file` already exists, training and active learning will be skipped in the next run:"
542542
]
543543
},
544544
{

docs/clean-prep/engarde.ipynb

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -4,16 +4,16 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Pandas DataFrame-Validierung mit Engarde\n",
7+
"# Pandas DataFrame validation with Engarde\n",
88
"\n",
9-
"In diesem Notebook überprüfen wir `pandas.DataFrame`-Objekte mit der Bibliothek [engarde](https://github.com/TomAugspurger/engarde). Mit ihr könnt Ihr sowohl Decorators für Funktionen schreiben als auch integrierte Funktionen verwenden, um Euren DataFrame mit bestimmten Validierungsregeln oder -definitionen zu testen."
9+
"In this notebook we check `pandas.DataFrame` objects with the [engarde](https://github.com/TomAugspurger/engarde) library. With it you can write decorators for functions as well as use built-in functions to test your DataFrame with certain validation rules or definitions."
1010
]
1111
},
1212
{
1313
"cell_type": "markdown",
1414
"metadata": {},
1515
"source": [
16-
"## 1. Importe"
16+
"## 1. Imports"
1717
]
1818
},
1919
{
@@ -31,7 +31,7 @@
3131
"cell_type": "markdown",
3232
"metadata": {},
3333
"source": [
34-
"## 2. Daten lesen"
34+
"## 2. Read data"
3535
]
3636
},
3737
{
@@ -47,7 +47,7 @@
4747
"cell_type": "markdown",
4848
"metadata": {},
4949
"source": [
50-
"## 3. Daten überprüfen"
50+
"## 3. Check data"
5151
]
5252
},
5353
{
@@ -189,9 +189,9 @@
189189
"cell_type": "markdown",
190190
"metadata": {},
191191
"source": [
192-
"## Datentypen überprüfen\n",
192+
"## Check data types\n",
193193
"\n",
194-
"Engarde lässt uns Datentypen nachverfolgen. In einer ersten Funktion sollten wir also unsere erwarteten Ergebnisse überpfüfen."
194+
"Engarde lets us keep track of data types. So in a first function we should check our expected results."
195195
]
196196
},
197197
{
@@ -258,9 +258,9 @@
258258
"cell_type": "markdown",
259259
"metadata": {},
260260
"source": [
261-
"## 5. Entfernen ungenügender Daten\n",
261+
"## 5. Remove insufficient data\n",
262262
"\n",
263-
"Um Daten von schlechter Qualität zu entfernen, entfernen wir zunächst Duplikate und fehlende Einträge."
263+
"To remove data of poor quality, we first remove duplicates and missing entries."
264264
]
265265
},
266266
{

docs/clean-prep/hypothesis.ipynb

Lines changed: 7 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -4,16 +4,16 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Hypothesis: _Property_ -basiertes Testen\n",
7+
"# Hypothesis: property based testing\n",
88
"\n",
9-
"In diesem Notebook verwenden wir _Property_ -basierte Tests, um Probleme in unserem Code zu finden. [Hypothesis](https://hypothesis.readthedocs.io/en/latest/) ist eine Bibliothek, die Haskells [Quickcheck](https://hackage.haskell.org/package/QuickCheck) ähnelt. Später lernen wir sie zusammen mit anderen Testbibliotheken noch genauer kennen: [Hypothesis](https://jupyter-tutorial.readthedocs.io/de/latest/productive/testing/hypothesis.html). Hypothesis kann auch Mock-Objekte und Tests für Numpy-Datentypen bereitstellen."
9+
"In this notebook we use property based tests to find problems in our code. [Hypothesis](https://hypothesis.readthedocs.io/en/latest/) is a library similar to Haskell’s [Quickcheck](https://hackage.haskell.org/package/QuickCheck). Later we will get to know it more closely together with other test libraries: [Hypothesis](../productive/testing/hypothesis.ipynb). Hypothesis can also provide mock objects and tests for Numpy data types."
1010
]
1111
},
1212
{
1313
"cell_type": "markdown",
1414
"metadata": {},
1515
"source": [
16-
"## 1. Importe"
16+
"## 1. Imports"
1717
]
1818
},
1919
{
@@ -31,7 +31,7 @@
3131
"cell_type": "markdown",
3232
"metadata": {},
3333
"source": [
34-
"## 2. Bereich finden"
34+
"## 2. Find range"
3535
]
3636
},
3737
{
@@ -48,7 +48,7 @@
4848
"cell_type": "markdown",
4949
"metadata": {},
5050
"source": [
51-
"## 3. Test mit `strategies` und `given`"
51+
"## 3. Test with `strategies` and `given`"
5252
]
5353
},
5454
{
@@ -101,7 +101,7 @@
101101
"cell_type": "markdown",
102102
"metadata": {},
103103
"source": [
104-
"## 3. Test korrigieren mit `>=`"
104+
"## 3. Correct the test with `>=`"
105105
]
106106
},
107107
{
@@ -130,7 +130,7 @@
130130
"cell_type": "markdown",
131131
"metadata": {},
132132
"source": [
133-
"## 4. Gegen Reguläre Ausdrücke prüfen"
133+
"## 4. Check against regular expressions"
134134
]
135135
},
136136
{

0 commit comments

Comments
 (0)