|
89 | 89 | description: "Inhalte aus dieser Gruppe im Bericht hervorheben" |
90 | 90 | temperature: |
91 | 91 | label: "Temperatur" |
92 | | - description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)" |
| 92 | + description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" |
93 | 93 | top_p: |
94 | 94 | label: "Top P" |
95 | | - description: "Top P für das LLM. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)" |
| 95 | + description: "Top P für die LLM, erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" |
96 | 96 | llm_triage: |
97 | 97 | fields: |
98 | 98 | system_prompt: |
|
134 | 134 | model: |
135 | 135 | label: "Modell" |
136 | 136 | description: "Für die Triage verwendetes Sprachmodell" |
| 137 | + temperature: |
| 138 | + label: "Temperatur" |
| 139 | + description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" |
137 | 140 | discourse_ai: |
138 | 141 | title: "KI" |
139 | 142 | modals: |
|
197 | 200 | no_users: "Keine Benutzernutzungsdaten gefunden" |
198 | 201 | no_models: "Keine Modellnutzungsdaten gefunden" |
199 | 202 | no_features: "Keine Funktionsnutzungsdaten gefunden" |
200 | | - subheader_description: "Token sind die Basiseinheiten, die LLMs zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken." |
| 203 | + subheader_description: "Token sind die Basiseinheiten, die LLMs zum Verstehen und Generieren von Text verwenden. Nutzungsdaten können sich auf die Kosten auswirken" |
201 | 204 | stat_tooltips: |
202 | 205 | total_requests: "Alle Anfragen an LLMs über Discourse" |
203 | 206 | total_tokens: "Alle Token, die bei der Abfrage einer LLM verwendet werden" |
|
397 | 400 | open_ai-o1: "Das leistungsfähigste Argumentationsmodell von Open AI" |
398 | 401 | open_ai-o3-mini: "Erweitertes kosteneffizientes Argumentationsmodell" |
399 | 402 | samba_nova-Meta-Llama-3-1-8B-Instruct: "Effizientes leichtgewichtiges mehrsprachiges Modell" |
400 | | - samba_nova-Meta-Llama-3-1-70B-Instruct": "Leistungsstarkes Mehrzweckmodell" |
| 403 | + samba_nova-Meta-Llama-3-3-70B-Instruct": "Leistungsstarkes Mehrzweckmodell" |
401 | 404 | mistral-mistral-large-latest: "Das leistungsstärkste Modell von Mistral" |
402 | 405 | mistral-pixtral-large-latest: "Das leistungsstärkste Modell von Mistral mit Sichtfunktion" |
403 | 406 | preseeded_model_description: "Vorkonfiguriertes Open-Source-Modell unter Verwendung von %{model}" |
|
407 | 410 | preconfigured: |
408 | 411 | title_no_llms: "Wähle eine Vorlage aus, um loszulegen" |
409 | 412 | title: "Unkonfigurierte LLM-Vorlagen" |
410 | | - description: "LLMs (Large Language Models) sind KI-Tools, die für Aufgaben wie die Zusammenfassung von Inhalten, die Erstellung von Berichten, die Automatisierung von Kundeninteraktionen und die Erleichterung der Forenmoderation und -einsicht optimiert sind." |
| 413 | + description: "LLMs (Large Language Models) sind KI-Tools, die für Aufgaben wie die Zusammenfassung von Inhalten, die Erstellung von Berichten, die Automatisierung von Kundeninteraktionen und die Erleichterung der Forenmoderation und -einsicht optimiert sind" |
411 | 414 | fake: "Manuelle Konfiguration" |
412 | 415 | button: "Einrichten" |
413 | 416 | next: |
|
629 | 632 | sentiments: |
630 | 633 | dashboard: |
631 | 634 | title: "Stimmung" |
| 635 | + sidebar: |
| 636 | + overview: "Stimmungsübersicht" |
| 637 | + analysis: "Stimmungsanalyse" |
632 | 638 | sentiment_analysis: |
633 | 639 | filter_types: |
634 | 640 | all: "Gesamt" |
|
0 commit comments