Skip to content

Commit d7f478c

Browse files
committed
day4 ready
1 parent f98d095 commit d7f478c

17 files changed

+168596
-777
lines changed

docs/3reinforce_learn/customer-churn.ipynb

Lines changed: 312 additions & 262 deletions
Large diffs are not rendered by default.

docs/3reinforce_learn/customer-churn.ipynb.bak

Lines changed: 123168 additions & 0 deletions
Large diffs are not rendered by default.

docs/3reinforce_learn/def.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -44,7 +44,7 @@ Stellen wir uns einen Roboter in neinem Raum vor, der selbst erlernen soll, wie
4444

4545
- Die **Aktionen** bestehen aus vier Bewegungsmöglichkeiten: **oben, unten, links, rechts**. (in 2D-Darstellung)
4646

47-
- Die **Belohnung** beträgt **+1**, wenn der Roboter den Ausgang findet, und **-1**, wenn er gegen eine Wand läuft.
47+
- Die **Belohnung** beträgt **+100**, wenn der Roboter den Ausgang findet, und **-100**, wenn er gegen eine Wand läuft, und **-1** bei jedem Schritt, er macht ohne zum Ziel zu kommen.
4848

4949
- Die **Policy (Strategie)** bestimmt, welche Aktion der Roboter in welchem Zustand ausführt.
5050

docs/3reinforce_learn/kunden_service.csv

Lines changed: 28154 additions & 0 deletions
Large diffs are not rendered by default.

docs/3reinforce_learn/qlearn.rst

Lines changed: 12 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -44,6 +44,7 @@ Q-Learning Algorithmus
4444
:::::::::::::::::::::::
4545

4646
Der Algorithmus läuft iterativ in folgenden Schritten ab:
47+
4748
1. **Agent befindet sich in einem Zustand `s`.**
4849
2. **Wählt eine Aktion `a` basierend auf einer Policy (z. B. zufällig oder nach maximalem Q-Wert).**
4950
3. **Führt die Aktion aus und erhält eine Belohnung `R`.**
@@ -71,11 +72,17 @@ Verbindung zwischen Markov-Prozessen und Q-Learning
7172
Q-Learning ist direkt mit **Markov-Entscheidungsprozessen (MDP)** verbunden.
7273

7374
Ein MDP besteht aus:
74-
* **S (States):** Die Menge aller möglichen Zustände, in denen sich der Agent befinden kann.
75-
* **A (Actions):** Die Menge aller möglichen Aktionen, die der Agent ausführen kann.
76-
* **P(s' | s, a) (Transition Model):** Die Wahrscheinlichkeit, dass der Agent nach der Aktion `a` von `s` nach `s'` wechselt.
77-
* **R(s, a) (Reward):** Die Belohnung, die der Agent für eine Aktion `a` in Zustand `s` erhält.
78-
* **γ (Discount Factor):** Der Faktor, der bestimmt, wie stark zukünftige Belohnungen gewichtet werden.
75+
76+
* **S (States):**
77+
Die Menge aller möglichen Zustände, in denen sich der Agent befinden kann.
78+
* **A (Actions):**
79+
Die Menge aller möglichen Aktionen, die der Agent ausführen kann.
80+
* **P(s' | s, a) (Transition Model):**
81+
Die Wahrscheinlichkeit, dass der Agent nach der Aktion `a` von `s` nach `s'` wechselt.
82+
* **R(s, a) (Reward):**
83+
Die Belohnung, die der Agent für eine Aktion `a` in Zustand `s` erhält.
84+
* **γ (Discount Factor):**
85+
Der Faktor, der bestimmt, wie stark zukünftige Belohnungen gewichtet werden.
7986

8087
**Warum ist das wichtig?**
8188

docs/3reinforce_learn/reinforcement_robotgridexit.ipynb

Lines changed: 24 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -422,6 +422,30 @@
422422
"plt.yticks(range(env.height))\n",
423423
"plt.show()"
424424
]
425+
},
426+
{
427+
"cell_type": "code",
428+
"execution_count": null,
429+
"id": "e1511177-edd4-487d-80a0-4fdd101b1eda",
430+
"metadata": {},
431+
"outputs": [],
432+
"source": []
433+
},
434+
{
435+
"cell_type": "code",
436+
"execution_count": null,
437+
"id": "76167e23-5e56-4ee3-bc1d-a5f09dafdfda",
438+
"metadata": {},
439+
"outputs": [],
440+
"source": []
441+
},
442+
{
443+
"cell_type": "code",
444+
"execution_count": null,
445+
"id": "a4e949b8-5b79-44f0-918b-c09a2fcd5071",
446+
"metadata": {},
447+
"outputs": [],
448+
"source": []
425449
}
426450
],
427451
"metadata": {

docs/4gen_ai/abschluss.rst

Lines changed: 24 additions & 23 deletions
Original file line numberDiff line numberDiff line change
@@ -1,30 +1,31 @@
11
Abschluss
2-
=========
3-
4-
Ethische Fragestellungen in der KI
5-
----------------------------------
6-
7-
Mit der rasanten Entwicklung der KI gehen auch bedeutende ethische Fragen
8-
einher:
9-
10-
Bias und Diskriminierung
11-
KI-Modelle können bestehende Vorurteile aus Trainingsdaten übernehmen.
12-
Arbeitsplatzverdrängung
13-
Automatisierung kann menschliche Arbeitsplätze gefährden.
14-
Transparenz und Erklärbarkeit
15-
Viele KI-Modelle, insbesondere Deep Learning, sind schwer zu interpretieren.
16-
Verantwortung und Haftung
17-
Wer ist verantwortlich, wenn eine KI fehlerhafte oder schädliche
18-
Entscheidungen trifft?
19-
Datenschutz
20-
KI-Anwendungen erfordern oft große Datenmengen, was Datenschutzprobleme
21-
aufwirft.
2+
==================================
3+
4+
**Ethische Fragestellungen in der KI**
5+
6+
Mit der rasanten Entwicklung der KI gehen auch bedeutende ethische Fragen einher:
7+
8+
- **Bias und Diskriminierung:** KI-Modelle können bestehende Vorurteile aus Trainingsdaten übernehmen.
9+
10+
- **Arbeitsplatzverdrängung:** Automatisierung kann menschliche Arbeitsplätze gefährden.
11+
12+
- **Transparenz und Erklärbarkeit:** Viele KI-Modelle, insbesondere Deep Learning, sind schwer zu interpretieren.
13+
14+
- **Verantwortung und Haftung:** Wer ist verantwortlich, wenn eine KI fehlerhafte oder schädliche Entscheidungen trifft?
15+
16+
- **Datenschutz:** KI-Anwendungen erfordern oft große Datenmengen, was Datenschutzprobleme aufwirft.
17+
18+
19+
2220

2321
Weitere Referenzen
24-
------------------
22+
-------------------
23+
24+
??????????
25+
===========
2526

26-
cusy hat bereits ein Neural Network Tutorial aufbereitet als Teil einer Reihe
27-
von Tutorials zur Datenanalyse und -visualisierung:
27+
Die Cusy hat bereits ein Neural Network Tutorial aufbereitet als Teil einer Reihe von Tutorials zur Datenanalyse
28+
und -visualisierung:
2829

2930
* `Python Basics <https://python-basics-tutorial.readthedocs.io/de/latest/>`_
3031
* `Jupyter-Tutorial <https://jupyter-tutorial.readthedocs.io/de/latest/>`_

0 commit comments

Comments
 (0)