|
13 | 13 | discourse_ai: |
14 | 14 | search: "Ermöglicht KI-Suche" |
15 | 15 | stream_completion: "Ermöglicht das Streamen von KI-Persona-Vervollständigungen" |
| 16 | + update_personas: "Ermöglicht die Aktualisierung von KI-Personas" |
16 | 17 | site_settings: |
17 | 18 | categories: |
18 | 19 | discourse_ai: "Discourse-KI" |
|
164 | 165 | description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)" |
165 | 166 | discourse_ai: |
166 | 167 | title: "KI" |
| 168 | + features: |
| 169 | + short_title: "Funktionen" |
| 170 | + description: "Dies sind die KI-Funktionen, die den Besuchern deiner Website zur Verfügung stehen. Sie können so konfiguriert werden, dass sie bestimmte Personas und LLMs verwenden, und der Zugriff kann mithilfe von Gruppen gesteuert werden." |
| 171 | + back: "Zurück" |
| 172 | + list: |
| 173 | + header: |
| 174 | + name: "Name" |
| 175 | + persona: "Persona" |
| 176 | + groups: "Gruppen" |
| 177 | + edit: "Bearbeiten" |
| 178 | + set_up: "Einrichten" |
| 179 | + configured_features: "Konfigurierte Funktionen" |
| 180 | + unconfigured_features: "Unkonfigurierte Funktionen" |
167 | 181 | modals: |
168 | 182 | select_option: "Wähle eine Option aus..." |
169 | 183 | spam: |
|
374 | 388 | name: "Modell-ID" |
375 | 389 | provider: "Anbieter" |
376 | 390 | tokenizer: "Tokenizer" |
377 | | - max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung" |
378 | 391 | url: "URL des Dienstes, der das Modell hostet" |
379 | 392 | api_key: "API-Schlüssel des Dienstes, der das Modell hostet" |
380 | 393 | enabled_chat_bot: "KI-Bot-Auswahl zulassen" |
@@ -422,15 +435,14 @@ de: |
422 | 435 | anthropic-claude-3-7-sonnet: "Das intelligenteste Modell von Anthropic" |
423 | 436 | anthropic-claude-3-5-haiku: "Schnell und kosteneffizient" |
424 | 437 | anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben" |
425 | | - google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann" |
426 | | - google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation" |
427 | | - open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation" |
428 | | - open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben" |
429 | | - open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben" |
430 | | - open_ai-o1-mini: "Kosteneffizientes Argumentationsmodell" |
431 | | - open_ai-o1-preview: "Open AI's fähigstes Argumentationsmodell (Vorschau)" |
| 438 | + google-gemini-2-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann" |
| 439 | + google-gemini-2-0-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation" |
| 440 | + google-gemini-2-0-flash-lite: "Kosteneffizientes Modell mit niedriger Latenz" |
432 | 441 | open_ai-o1: "Das leistungsfähigste Argumentationsmodell von Open AI" |
433 | 442 | open_ai-o3-mini: "Erweitertes kosteneffizientes Argumentationsmodell" |
| 443 | + open_ai-gpt-4-1: "Das Vorzeigemodell von Open AI. Es ist gut geeignet für Problemlösungen in verschiedenen Bereichen" |
| 444 | + open_ai-gpt-4-1-mini: "Bietet ein ausgewogenes Verhältnis zwischen Intelligenz, Geschwindigkeit und Kosten, was es zu einem attraktiven Modell für viele Anwendungsfälle macht." |
| 445 | + open_ai-gpt-4-1-nano: "Das schnellste und kostengünstigste GPT-4.1-Modell." |
434 | 446 | samba_nova-Meta-Llama-3-1-8B-Instruct: "Effizientes leichtgewichtiges mehrsprachiges Modell" |
435 | 447 | samba_nova-Meta-Llama-3-3-70B-Instruct": "Leistungsstarkes Mehrzweckmodell" |
436 | 448 | mistral-mistral-large-latest: "Das leistungsstärkste Modell von Mistral" |
|
453 | 465 | success: "Erfolg!" |
454 | 466 | failure: "Beim Versuch, das Modell zu kontaktieren, wurde dieser Fehler zurückgegeben: %{error}" |
455 | 467 | hints: |
456 | | - max_prompt_tokens: "Maximale Anzahl von Token für die Eingabeaufforderung. Als Faustregel gilt, dass dies 50 % des Kontextfensters des Modells sein sollten." |
457 | 468 | display_name: "Der Name, der verwendet wird, um dieses Modell in der Benutzeroberfläche deiner Website zu referenzieren." |
458 | 469 | name: "Wir fügen dies in den API-Aufruf ein, um anzugeben, welches Modell wir verwenden werden" |
459 | 470 | vision_enabled: "Wenn diese Funktion aktiviert ist, versucht die KI, Bilder zu verstehen. Dafür wird ein Modell benötigt, das Sehen unterstützt. Verfügbar in den neuesten Modellen von Anthropic, Google und OpenAI." |
|
0 commit comments