You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
{{ message }}
This repository was archived by the owner on Jul 22, 2025. It is now read-only.
Copy file name to clipboardExpand all lines: config/locales/client.de.yml
+32-5Lines changed: 32 additions & 5 deletions
Original file line number
Diff line number
Diff line change
@@ -167,7 +167,7 @@ de:
167
167
title: "KI"
168
168
features:
169
169
short_title: "Funktionen"
170
-
description: "Dies sind die KI-Funktionen, die den Besuchern deiner Website zur Verfügung stehen. Sie können so konfiguriert werden, dass sie bestimmte Personas und LLMs verwenden, und der Zugriff kann mithilfe von Gruppen gesteuert werden."
170
+
description: "Dies sind die KI-Funktionen, die den Besuchern deiner Website zur Verfügung stehen. Sie können so konfiguriert werden, dass sie bestimmte Personas und LLM verwenden, und der Zugriff kann mithilfe von Gruppen gesteuert werden."
subheader_description: "Token sind die Basiseinheiten, die LLMs zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken"
243
+
subheader_description: "Token sind die Basiseinheiten, die LLM zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken"
243
244
stat_tooltips:
244
245
total_requests: "Alle Anfragen an LLMs über Discourse"
245
246
total_tokens: "Alle Token, die bei der Abfrage einer LLM verwendet werden"
246
247
request_tokens: "Tokens, die verwendet werden, wenn das LLM versucht zu verstehen, was du sagst"
247
248
response_tokens: "Token, die verwendet werden, wenn die LLM auf deine Aufforderung antwortet"
248
249
cached_tokens: "Zuvor verarbeitete Anfragetoken, die das LLM wiederverwendet, um Leistung und Kosten zu optimieren"
250
+
total_spending: "Kumulierte Kosten aller von den LLM verwendeten Token auf Grundlage der spezifischen Kostenmetriken, die zu den LLM-Konfigurationseinstellungen hinzugefügt wurden"
249
251
periods:
250
252
last_day: "Letzte 24 Stunden"
251
253
last_week: "Letzte Woche"
@@ -361,7 +363,9 @@ de:
361
363
script: "Skript"
362
364
parameters: "Parameter"
363
365
save: "Speichern"
366
+
parameter_type: "Parametertyp"
364
367
add_parameter: "Parameter hinzufügen"
368
+
remove_parameter: "Entfernen"
365
369
parameter_required: "Erforderlich"
366
370
parameter_enum: "Aufzählung"
367
371
parameter_name: "Parametername"
@@ -372,10 +376,7 @@ de:
372
376
test: "Test ausführen"
373
377
delete: "Löschen"
374
378
saved: "Tool gespeichert"
375
-
presets: "Wähle eine Voreinstellung aus …"
376
379
confirm_delete: "Bist du sicher, dass du dieses Tool löschen willst?"
377
-
next:
378
-
title: "Weiter"
379
380
test_modal:
380
381
title: "KI-Tool testen"
381
382
run: "Test ausführen"
@@ -388,11 +389,16 @@ de:
388
389
name: "Modell-ID"
389
390
provider: "Anbieter"
390
391
tokenizer: "Tokenizer"
392
+
max_prompt_tokens: "Kontextfenster"
393
+
max_output_tokens: "Maximale Ausgabetoken"
391
394
url: "URL des Dienstes, der das Modell hostet"
392
395
api_key: "API-Schlüssel des Dienstes, der das Modell hostet"
393
396
enabled_chat_bot: "KI-Bot-Auswahl zulassen"
394
397
vision_enabled: "Sehen aktiviert"
395
398
ai_bot_user: "KI-Bot-Benutzer"
399
+
cost_input: "Eingabekosten"
400
+
cost_cached_input: "Eingabekosten für Zwischengespeichertes"
401
+
cost_output: "Ausgabekosten"
396
402
save: "Speichern"
397
403
edit: "Bearbeiten"
398
404
saved: "LLM-Modell gespeichert"
@@ -423,10 +429,12 @@ de:
423
429
usage:
424
430
ai_bot: "KI-Bot"
425
431
ai_helper: "Helfer"
432
+
ai_helper_image_caption: "Bildbeschriftungen"
426
433
ai_persona: "Persona (%{persona})"
427
434
ai_summarization: "Zusammenfassen"
428
435
ai_embeddings_semantic_search: "KI-Suche"
429
436
ai_spam: "Spam"
437
+
automation: "Automatisierung (%{name})"
430
438
in_use_warning:
431
439
one: "Dieses Modell wird derzeit von %{settings} verwendet. Wenn es falsch konfiguriert ist, wird die Funktion nicht wie erwartet funktionieren."
432
440
other: "Dieses Modell wird derzeit verwendet von: %{settings}. Wenn es falsch konfiguriert ist, werden die Funktionen nicht wie erwartet funktionieren. "
@@ -465,10 +473,16 @@ de:
465
473
success: "Erfolg!"
466
474
failure: "Beim Versuch, das Modell zu kontaktieren, wurde dieser Fehler zurückgegeben: %{error}"
467
475
hints:
476
+
max_prompt_tokens: "Die maximale Anzahl von Token, die das Modell in einer einzigen Anfrage verarbeiten kann"
477
+
max_output_tokens: "Die maximale Anzahl von Token, die das Modell in einer einzigen Anfrage generieren kann"
468
478
display_name: "Der Name, der verwendet wird, um dieses Modell in der Benutzeroberfläche deiner Website zu referenzieren."
469
479
name: "Wir fügen dies in den API-Aufruf ein, um anzugeben, welches Modell wir verwenden werden"
470
480
vision_enabled: "Wenn diese Funktion aktiviert ist, versucht die KI, Bilder zu verstehen. Dafür wird ein Modell benötigt, das Sehen unterstützt. Verfügbar in den neuesten Modellen von Anthropic, Google und OpenAI."
471
481
enabled_chat_bot: "Wenn diese Option aktiviert ist, können Benutzer dieses Modell auswählen, wenn sie PN mit dem KI-Bot erstellen"
482
+
cost_input: "Die Kosten für die Eingabe pro 1 Million Token für dieses Modell"
483
+
cost_cached_input: "Die Kosten für die Eingabe von Zwischengespeichertem pro 1 Million Token für dieses Modell"
484
+
cost_output: "Die Kosten für die Ausgabe pro 1 Million Token für dieses Modell"
485
+
cost_measure: "$/1M Token"
472
486
providers:
473
487
aws_bedrock: "AWS Bedrock"
474
488
anthropic: "Anthropic"
@@ -627,6 +641,8 @@ de:
627
641
collapse_view_label: "Vollbild verlassen (ESC- oder Zurück-Taste)"
628
642
click_to_run_label: "Artefakt ausführen"
629
643
ai_bot:
644
+
persona: "Persona"
645
+
llm: "Modell"
630
646
pm_warning: "KI-Chatbot-Nachrichten werden regelmäßig von Moderatoren überwacht."
631
647
cancel_streaming: "Antwort abbrechen"
632
648
default_pm_prefix: "[KI-Bot-PN ohne Titel]"
@@ -675,6 +691,17 @@ de:
675
691
5-pro: "Gemini"
676
692
mixtral-8x7B-Instruct-V0:
677
693
"1": "Mixtral-8x7B V0.1"
694
+
conversations:
695
+
header: "Wie kann ich helfen?"
696
+
submit: "Frage abschicken"
697
+
disclaimer: "Generative KI kann Fehler machen. Überprüfe wichtige Informationen."
698
+
placeholder: "Stell eine Frage ..."
699
+
new: "Neue Frage"
700
+
min_input_length_message: "Die Nachricht muss länger als 10 Zeichen sein"
0 commit comments