|
6 | 6 | "login_message": "Um dieses Feature zu nutzen müssen Sie dich erneut anmelden. Melden Sie sich durch einen dieser Provider an:", |
7 | 7 | "max_new_tokens": "Maximale Anzahl neuer Token", |
8 | 8 | "model": "Model", |
| 9 | + "parameter_description": { |
| 10 | + "max_new_tokens": "Max new tokens: Dieser Parameter teilt dem Modell mit, wie viele neue Token es maximal für die Antwort generieren soll.", |
| 11 | + "repetition_penalty": "Wiederholungsstrafe: Dieser Parameter verringert die Wahrscheinlichkeit, dass dieselben Token immer wieder wiederholt werden, indem er wiederholte Token weniger wahrscheinlich macht, als das Modell normalerweise vorhersagen würde.", |
| 12 | + "temperature": "Temperatur: Jedes von Ihnen generierte Token wird aus einer Verteilung p(nächstes_Token|vorheriges_Tokens) abgetastet. Der Temperaturparameter kann diese Verteilung „schärfen“ oder dämpfen. Das Festlegen auf 1 bedeutet, dass das Modell Token basierend auf ihrer vorhergesagten Wahrscheinlichkeit generiert (d. h. wenn das Modell vorhersagt, dass „XYZ“ eine Wahrscheinlichkeit von 12,3 % hat, wird es es mit einer Wahrscheinlichkeit von 12,3 % generieren). Das Absenken der Temperatur in Richtung Null macht das Modell gieriger, was dazu führt, dass hohe Wahrscheinlichkeiten noch höher und niedrige Wahrscheinlichkeiten noch niedriger werden (beachten Sie, dass dies keine lineare Beziehung ist!). Eine Erhöhung der Temperatur macht alle Wahrscheinlichkeiten ähnlicher. Intuitiv bedeutet eine niedrige Temperatur, dass das Modell Antworten generiert, die eng mit seinen Überzeugungen übereinstimmen, während eine hohe Temperatur kreativere und vielfältigere Antworten ermöglicht.", |
| 13 | + "top_k": "Top-k: Dies ähnelt dem Top-p-Sampling, aber anstatt die Top-Token zu nehmen, bis ihre kumulative Wahrscheinlichkeit 'p' überschreitet, werden nur die K wahrscheinlichsten Token genommen. Top-p wird normalerweise bevorzugt, da es dem Modell ermöglicht, den Suchradius zu „tunen“, aber top-k kann als Notbremse nützlich sein, wenn das Modell keine Ahnung hat, was es als nächstes generieren soll, und vielen Token eine sehr gleichmäßige Verteilung zuweist.", |
| 14 | + "top_p": "Top-p-Sampling (auch bekannt als Nucleus-Sampling): Diese Methode reduziert die Wahrscheinlichkeitsverteilung, um nur die Top-p-Prozent von Token zu betrachten. Durch das Verwerfen von Token mit geringer Wahrscheinlichkeit hilft es, die Generation zu begrenzen und zu verhindern, dass das Modell grammatikalisch falsche Sätze generiert.", |
| 15 | + "typical_p": "Typisches p: Typisches Sampling ist ein informationstheoretisches Verfahren, das neben der Wahrscheinlichkeit auch die Sequenzentropie (also den Informationsgehalt gemäß der Wahrscheinlichkeit) berücksichtigt. Dies bedeutet, dass beim typischen Sampling einige der Token mit geringerer Wahrscheinlichkeit \"übergewichtet\" werden, weil sie als \"interessant\" gelten, und Token mit hoher Wahrscheinlichkeit untergewichtet werden, weil sie als \"langweilig\" gelten." |
| 16 | + }, |
9 | 17 | "preset": "Vorlage", |
10 | 18 | "preset_custom": "Benutzerdefiniert", |
11 | 19 | "queue_info": "Ihre Nachricht ist in der Warteschlange, Sie sind an {{ queuePosition, number, integer }}. Stelle in der Warteschlange.", |
12 | | - "repetition_penalty": "Wiederholungs-Penalty", |
| 20 | + "repetition_penalty": "Wiederholungsstrafe", |
13 | 21 | "temperature": "Temperatur", |
14 | 22 | "top_k": "Top K", |
15 | 23 | "top_p": "Top P", |
16 | 24 | "typical_p": "Typisches P", |
17 | 25 | "you_are_logged_in": "Sie sind am Chatservice angemeldet", |
18 | | - "your_chats": "Ihre Chats" |
| 26 | + "your_chats": "Ihre Chats", |
| 27 | + "input_placeholder": "Frag den Assistenten irgendetwas", |
| 28 | + "warning": "Dieser Assistent ist eine Demoversion ohne Internetzugang. Es können falsche oder irreführende Informationen generiert werden. Es ist nicht für wichtige Anwendungsfälle oder zur Beratung geeignet." |
19 | 29 | } |
0 commit comments