|
140 | 140 | question_consolidator_llm: Sprachmodell für Fragenkonsolidierer |
141 | 141 | question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen. |
142 | 142 | system_prompt: System-Eingabeaufforderung |
143 | | - show_indexing_options: "Upload-Optionen anzeigen" |
144 | | - hide_indexing_options: "Upload-Optionen ausblenden" |
145 | 143 | allow_chat: "Chat zulassen" |
146 | 144 | allow_chat_help: "Wenn diese Option aktiviert ist, können Nutzer in erlaubten Gruppen dieser Persona eine DN senden" |
147 | 145 | save: Speichern |
|
161 | 159 | priority: Priorität |
162 | 160 | priority_help: Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert. |
163 | 161 | tool_options: "Tool-Optionen" |
164 | | - rag_chunk_tokens: "Chunk-Token hochladen" |
165 | | - rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" |
166 | | - rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen" |
167 | | - rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" |
168 | 162 | rag_conversation_chunks: "Suchunterhaltungs-Chunks" |
169 | 163 | rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann." |
170 | 164 | what_are_personas: "Was sind KI-Personas?" |
|
178 | 172 | #### Gruppenspezifischer Zugriff auf KI-Personas |
179 | 173 |
|
180 | 174 | Außerdem kannst du die Funktion so einrichten, dass bestimmte Nutzergruppen Zugriff auf gewisse Personas haben. Das bedeutet, dass du für verschiedene Bereiche deines Forums unterschiedliche KI-Verhaltensweisen verwenden kannst, was die Vielfalt und Fülle der Interaktionen deiner Community weiter verbessert. |
| 175 | + rag: |
| 176 | + options: |
| 177 | + rag_chunk_tokens: "Chunk-Token hochladen" |
| 178 | + rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" |
| 179 | + rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen" |
| 180 | + rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" |
| 181 | + show_indexing_options: "Upload-Optionen anzeigen" |
| 182 | + hide_indexing_options: "Upload-Optionen ausblenden" |
181 | 183 | uploads: |
182 | 184 | title: "Uploads" |
183 | | - description: "Deine KI-Persona wird in der Lage sein, den Inhalt der beigefügten Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein." |
| 185 | + description: "Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein." |
184 | 186 | button: "Dateien hinzufügen" |
185 | 187 | filter: "Uploads filtern" |
186 | 188 | indexed: "Indiziert" |
|
224 | 226 | short_title: "LLM" |
225 | 227 | no_llms: "Noch keine LLM" |
226 | 228 | new: "Neues Modell" |
227 | | - display_name: "Anzeigename" |
228 | | - name: "Modellname" |
229 | | - provider: "Dienst, der das Modell hostet" |
| 229 | + display_name: "Name" |
| 230 | + name: "Modell-ID" |
| 231 | + provider: "Anbieter" |
230 | 232 | tokenizer: "Tokenizer" |
231 | 233 | max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung" |
232 | 234 | url: "URL des Dienstes, der das Modell hostet" |
|
244 | 246 | in_use_warning: |
245 | 247 | one: "Dieses Modell wird derzeit von der Einstellung %{settings} verwendet. Wenn die Funktion falsch konfiguriert ist, funktioniert sie nicht wie erwartet." |
246 | 248 | other: "Dieses Modell wird derzeit von den folgenden Einstellungen verwendet: %{settings}. Bei einer falschen Konfiguration funktionieren die Funktionen nicht wie erwartet. " |
| 249 | + model_description: |
| 250 | + none: "Allgemeine Einstellungen, die für die meisten Sprachmodelle funktionieren" |
| 251 | + anthropic-claude-3-5-sonnet: "Das intelligenteste Modell der Anthropologie" |
| 252 | + anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben" |
| 253 | + anthropic-claude-3-sonnet: "Ausgewogenheit zwischen Geschwindigkeit und Intelligenz" |
| 254 | + anthropic-claude-3-haiku: "Schnell und kosteneffizient" |
| 255 | + google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann" |
| 256 | + google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation" |
| 257 | + open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation" |
| 258 | + open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben" |
| 259 | + open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben" |
| 260 | + configured: |
| 261 | + title: "Konfigurierte LLMs" |
247 | 262 | preconfigured_llms: "Wähle dein LLM" |
248 | 263 | preconfigured: |
249 | | - none: "Manuell konfigurieren …" |
| 264 | + title_no_llms: "Wähle eine Vorlage aus, um loszulegen" |
| 265 | + title: "Unkonfigurierte LLM-Vorlagen" |
| 266 | + fake: "Manuelle Konfiguration" |
| 267 | + button: "Einrichten" |
250 | 268 | next: |
251 | 269 | title: "Nächstes" |
252 | 270 | tests: |
|
270 | 288 | ollama: "Ollama" |
271 | 289 | CDCK: "CDCK" |
272 | 290 | samba_nova: "SambaNova" |
| 291 | + fake: "Benutzerdefiniert" |
273 | 292 | provider_fields: |
274 | 293 | access_key_id: "AWS-Bedrock-Zugangsschlüssel-ID" |
275 | 294 | region: "AWS-Bedrock-Region" |
|
0 commit comments