Skip to content

Commit 065186a

Browse files
Adding missing german translations part 1 (#3005)
First batch of missing translations for German * account.json (completely newly created) * chat.json (10 new strings) There are more missing translations in these files, that I plan to translate in future PRs: * common.json (2) * index.json (1) * labelling.json (56!) * leaderboard.json (21) * stats.json (1) * tasks.json (15) Co-authored-by: stergro <derfrosch@posteo.de>
1 parent 2ec1be8 commit 065186a

File tree

2 files changed

+21
-2
lines changed

2 files changed

+21
-2
lines changed
Lines changed: 9 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,9 @@
1+
{
2+
"delete_account": "Mein Konto löschen",
3+
"delete_account_data": "Alle Daten auf Open Assistant, die durch das Lösen von Aufgaben, das einordnen von Nachrichten und alle Gespräche, die über den Chat-Dienst gespeichert wurden, werden weiterhin gespeichert. Alle Verweise auf den ursprünglichen Benutzer werden jedoch anonymisiert.",
4+
"delete_account_intro": "Das Löschen des Kontos bedeutet folgendes:",
5+
"delete_account_leaderboard": "Gelöschte Konto erscheinen nicht mehr in der Bestenliste.",
6+
"delete_account_permanent": "Diese Aktion ist entgültig und kann nicht rückgängig gemacht werden.",
7+
"go_to_dashboard": "Zurück zum Dashboard",
8+
"yes_delete": "Ja, ich möchte mein Konte entgültig löschen."
9+
}

website/public/locales/de/chat.json

Lines changed: 12 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -6,14 +6,24 @@
66
"login_message": "Um dieses Feature zu nutzen müssen Sie dich erneut anmelden. Melden Sie sich durch einen dieser Provider an:",
77
"max_new_tokens": "Maximale Anzahl neuer Token",
88
"model": "Model",
9+
"parameter_description": {
10+
"max_new_tokens": "Max new tokens: Dieser Parameter teilt dem Modell mit, wie viele neue Token es maximal für die Antwort generieren soll.",
11+
"repetition_penalty": "Wiederholungsstrafe: Dieser Parameter verringert die Wahrscheinlichkeit, dass dieselben Token immer wieder wiederholt werden, indem er wiederholte Token weniger wahrscheinlich macht, als das Modell normalerweise vorhersagen würde.",
12+
"temperature": "Temperatur: Jedes von Ihnen generierte Token wird aus einer Verteilung p(nächstes_Token|vorheriges_Tokens) abgetastet. Der Temperaturparameter kann diese Verteilung „schärfen“ oder dämpfen. Das Festlegen auf 1 bedeutet, dass das Modell Token basierend auf ihrer vorhergesagten Wahrscheinlichkeit generiert (d. h. wenn das Modell vorhersagt, dass „XYZ“ eine Wahrscheinlichkeit von 12,3 % hat, wird es es mit einer Wahrscheinlichkeit von 12,3 % generieren). Das Absenken der Temperatur in Richtung Null macht das Modell gieriger, was dazu führt, dass hohe Wahrscheinlichkeiten noch höher und niedrige Wahrscheinlichkeiten noch niedriger werden (beachten Sie, dass dies keine lineare Beziehung ist!). Eine Erhöhung der Temperatur macht alle Wahrscheinlichkeiten ähnlicher. Intuitiv bedeutet eine niedrige Temperatur, dass das Modell Antworten generiert, die eng mit seinen Überzeugungen übereinstimmen, während eine hohe Temperatur kreativere und vielfältigere Antworten ermöglicht.",
13+
"top_k": "Top-k: Dies ähnelt dem Top-p-Sampling, aber anstatt die Top-Token zu nehmen, bis ihre kumulative Wahrscheinlichkeit 'p' überschreitet, werden nur die K wahrscheinlichsten Token genommen. Top-p wird normalerweise bevorzugt, da es dem Modell ermöglicht, den Suchradius zu „tunen“, aber top-k kann als Notbremse nützlich sein, wenn das Modell keine Ahnung hat, was es als nächstes generieren soll, und vielen Token eine sehr gleichmäßige Verteilung zuweist.",
14+
"top_p": "Top-p-Sampling (auch bekannt als Nucleus-Sampling): Diese Methode reduziert die Wahrscheinlichkeitsverteilung, um nur die Top-p-Prozent von Token zu betrachten. Durch das Verwerfen von Token mit geringer Wahrscheinlichkeit hilft es, die Generation zu begrenzen und zu verhindern, dass das Modell grammatikalisch falsche Sätze generiert.",
15+
"typical_p": "Typisches p: Typisches Sampling ist ein informationstheoretisches Verfahren, das neben der Wahrscheinlichkeit auch die Sequenzentropie (also den Informationsgehalt gemäß der Wahrscheinlichkeit) berücksichtigt. Dies bedeutet, dass beim typischen Sampling einige der Token mit geringerer Wahrscheinlichkeit \"übergewichtet\" werden, weil sie als \"interessant\" gelten, und Token mit hoher Wahrscheinlichkeit untergewichtet werden, weil sie als \"langweilig\" gelten."
16+
},
917
"preset": "Vorlage",
1018
"preset_custom": "Benutzerdefiniert",
1119
"queue_info": "Ihre Nachricht ist in der Warteschlange, Sie sind an {{ queuePosition, number, integer }}. Stelle in der Warteschlange.",
12-
"repetition_penalty": "Wiederholungs-Penalty",
20+
"repetition_penalty": "Wiederholungsstrafe",
1321
"temperature": "Temperatur",
1422
"top_k": "Top K",
1523
"top_p": "Top P",
1624
"typical_p": "Typisches P",
1725
"you_are_logged_in": "Sie sind am Chatservice angemeldet",
18-
"your_chats": "Ihre Chats"
26+
"your_chats": "Ihre Chats",
27+
"input_placeholder": "Frag den Assistenten irgendetwas",
28+
"warning": "Dieser Assistent ist eine Demoversion ohne Internetzugang. Es können falsche oder irreführende Informationen generiert werden. Es ist nicht für wichtige Anwendungsfälle oder zur Beratung geeignet."
1929
}

0 commit comments

Comments
 (0)