Skip to content
This repository was archived by the owner on Jul 22, 2025. It is now read-only.
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
18 changes: 10 additions & 8 deletions config/locales/client.ar.yml
Original file line number Diff line number Diff line change
Expand Up @@ -138,6 +138,14 @@ ar:
label: "درجة الحرارة"
discourse_ai:
title: "الذكاء الاصطناعي"
features:
back: "الرجوع"
list:
header:
name: "الاسم"
groups: "المجموعات"
edit: "تعديل"
set_up: "إعداد"
modals:
select_option: "حدِّد خيارًا..."
spam:
Expand Down Expand Up @@ -338,7 +346,6 @@ ar:
name: "معرِّف النموذج"
provider: "مقدِّم الخدمة"
tokenizer: "أداة الترميز"
max_prompt_tokens: "عدد الرموز المميزة لرسالة المطالبة"
url: "عنوان URL لخدمة استضافة النموذج"
api_key: "مفتاح API لخدمة استضافة النموذج"
enabled_chat_bot: "السماح بمحدِّد روبوت الذكاء الاصطناعي"
Expand Down Expand Up @@ -388,12 +395,8 @@ ar:
anthropic-claude-3-7-sonnet: "النموذج الأكثر ذكاءً لدى Anthropic"
anthropic-claude-3-5-haiku: "سريع وفعَّال من حيث التكلفة"
anthropic-claude-3-opus: "يبرع في الكتابة والمهام المعقدة"
google-gemini-1-5-pro: "نموذج متعدد متوسط الحجم قادر على تنفيذ مجموعة واسعة من المهام"
google-gemini-1-5-flash: "خفيف وسريع وفعَّال من حيث التكلفة مع الاستدلال متعدد النماذج"
open_ai-gpt-4-turbo: "نموذج عالي الذكاء من الجيل السابق"
open_ai-gpt-4o: "نموذج عالي الذكاء للمهام المعقدة والمتعددة الخطوات"
open_ai-gpt-4o-mini: "نموذج صغير سريع وبأسعارٍ معقولة للمهام الخفيفة"
open_ai-o1-mini: "نموذج استدلال فعَّال من حيث التكلفة"
google-gemini-2-5-pro: "نموذج متعدد متوسط الحجم قادر على تنفيذ مجموعة واسعة من المهام"
google-gemini-2-0-flash: "خفيف وسريع وفعَّال من حيث التكلفة مع الاستدلال متعدد النماذج"
samba_nova-Meta-Llama-3-1-8B-Instruct: "نموذج متعدد اللغات خفيف وفعَّال"
samba_nova-Meta-Llama-3-3-70B-Instruct": "نموذج قوي متعدد الأغراض"
mistral-mistral-large-latest: "النموذج الأقوى لدى Mistral"
Expand All @@ -416,7 +419,6 @@ ar:
success: "تم بنجاح!"
failure: "أرجعت محاولة التواصل مع النموذج هذا الخطأ: %{error}"
hints:
max_prompt_tokens: "الحد الأقصى لعدد الرموز المميزة لرسالة المطالبة. كقاعدة عامة، يجب أن يمثل هذا 50% من نافذة سياق النموذج."
name: "إننا نقوم بتضمين هذا في استدعاء واجهة برمجة التطبيقات (API) لتحديد النموذج الذي سنستخدمه"
vision_enabled: "إذا تم تفعيله، فسيحاول الذكاء الاصطناعي فهم الصور. إنه يعتمد على النموذج المُستخدَم لدعم الرؤية. هذه الميزة مدعومة بأحدث النماذج من Anthropic وGoogle وOpenAI."
enabled_chat_bot: "إذا تم تفعيله، يمكن للمستخدمين تحديد هذا النموذج عند إنشاء الرسائل الخاصة باستخدام روبوت الذكاء الاصطناعي"
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.be.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ be:
canned_reply:
label: "Адказаць"
discourse_ai:
features:
back: "Назад"
list:
header:
name: "Імя"
groups: "групы"
edit: "Рэдагаваць"
spam:
short_title: "Спам"
enable: "Уключыць"
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.bg.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ bg:
canned_reply:
label: "Отговорете"
discourse_ai:
features:
back: "Назад"
list:
header:
name: "Име "
groups: "Групи"
edit: "Редактирай"
modals:
select_option: "Изберете опция..."
spam:
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.bs_BA.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ bs_BA:
canned_reply:
label: "Odgovori"
discourse_ai:
features:
back: "Prethodno"
list:
header:
name: "Ime"
groups: "Groups"
edit: "Edit"
modals:
select_option: "Odaberi opciju..."
spam:
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.ca.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ ca:
canned_reply:
label: "Respon"
discourse_ai:
features:
back: "Enrere"
list:
header:
name: "Nom"
groups: "Grups"
edit: "Edita"
modals:
select_option: "Trieu una opció..."
spam:
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.cs.yml
Original file line number Diff line number Diff line change
Expand Up @@ -36,6 +36,13 @@ cs:
canned_reply:
label: "Odpověď"
discourse_ai:
features:
back: "Zpět"
list:
header:
name: "Název"
groups: "Skupiny"
edit: "Upravit"
modals:
select_option: "Zvolit možnost..."
spam:
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.da.yml
Original file line number Diff line number Diff line change
Expand Up @@ -36,6 +36,13 @@ da:
canned_reply:
label: "Svar"
discourse_ai:
features:
back: "Tilbage"
list:
header:
name: "Navn"
groups: "Grupper"
edit: "Rediger"
modals:
select_option: "Vælg en indstilling..."
spam:
Expand Down
29 changes: 20 additions & 9 deletions config/locales/client.de.yml
Original file line number Diff line number Diff line change
Expand Up @@ -13,6 +13,7 @@ de:
discourse_ai:
search: "Ermöglicht KI-Suche"
stream_completion: "Ermöglicht das Streamen von KI-Persona-Vervollständigungen"
update_personas: "Ermöglicht die Aktualisierung von KI-Personas"
site_settings:
categories:
discourse_ai: "Discourse-KI"
Expand Down Expand Up @@ -164,6 +165,19 @@ de:
description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um das Standardmodell zu verwenden)"
discourse_ai:
title: "KI"
features:
short_title: "Funktionen"
description: "Dies sind die KI-Funktionen, die den Besuchern deiner Website zur Verfügung stehen. Sie können so konfiguriert werden, dass sie bestimmte Personas und LLMs verwenden, und der Zugriff kann mithilfe von Gruppen gesteuert werden."
back: "Zurück"
list:
header:
name: "Name"
persona: "Persona"
groups: "Gruppen"
edit: "Bearbeiten"
set_up: "Einrichten"
configured_features: "Konfigurierte Funktionen"
unconfigured_features: "Unkonfigurierte Funktionen"
modals:
select_option: "Wähle eine Option aus..."
spam:
Expand Down Expand Up @@ -374,7 +388,6 @@ de:
name: "Modell-ID"
provider: "Anbieter"
tokenizer: "Tokenizer"
max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung"
url: "URL des Dienstes, der das Modell hostet"
api_key: "API-Schlüssel des Dienstes, der das Modell hostet"
enabled_chat_bot: "KI-Bot-Auswahl zulassen"
Expand Down Expand Up @@ -422,15 +435,14 @@ de:
anthropic-claude-3-7-sonnet: "Das intelligenteste Modell von Anthropic"
anthropic-claude-3-5-haiku: "Schnell und kosteneffizient"
anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben"
google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann"
google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation"
open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation"
open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben"
open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben"
open_ai-o1-mini: "Kosteneffizientes Argumentationsmodell"
open_ai-o1-preview: "Open AI's fähigstes Argumentationsmodell (Vorschau)"
google-gemini-2-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann"
google-gemini-2-0-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation"
google-gemini-2-0-flash-lite: "Kosteneffizientes Modell mit niedriger Latenz"
open_ai-o1: "Das leistungsfähigste Argumentationsmodell von Open AI"
open_ai-o3-mini: "Erweitertes kosteneffizientes Argumentationsmodell"
open_ai-gpt-4-1: "Das Vorzeigemodell von Open AI. Es ist gut geeignet für Problemlösungen in verschiedenen Bereichen"
open_ai-gpt-4-1-mini: "Bietet ein ausgewogenes Verhältnis zwischen Intelligenz, Geschwindigkeit und Kosten, was es zu einem attraktiven Modell für viele Anwendungsfälle macht."
open_ai-gpt-4-1-nano: "Das schnellste und kostengünstigste GPT-4.1-Modell."
samba_nova-Meta-Llama-3-1-8B-Instruct: "Effizientes leichtgewichtiges mehrsprachiges Modell"
samba_nova-Meta-Llama-3-3-70B-Instruct": "Leistungsstarkes Mehrzweckmodell"
mistral-mistral-large-latest: "Das leistungsstärkste Modell von Mistral"
Expand All @@ -453,7 +465,6 @@ de:
success: "Erfolg!"
failure: "Beim Versuch, das Modell zu kontaktieren, wurde dieser Fehler zurückgegeben: %{error}"
hints:
max_prompt_tokens: "Maximale Anzahl von Token für die Eingabeaufforderung. Als Faustregel gilt, dass dies 50 % des Kontextfensters des Modells sein sollten."
display_name: "Der Name, der verwendet wird, um dieses Modell in der Benutzeroberfläche deiner Website zu referenzieren."
name: "Wir fügen dies in den API-Aufruf ein, um anzugeben, welches Modell wir verwenden werden"
vision_enabled: "Wenn diese Funktion aktiviert ist, versucht die KI, Bilder zu verstehen. Dafür wird ein Modell benötigt, das Sehen unterstützt. Verfügbar in den neuesten Modellen von Anthropic, Google und OpenAI."
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.el.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ el:
canned_reply:
label: "Απάντηση"
discourse_ai:
features:
back: "Πίσω"
list:
header:
name: "Όνομα"
groups: "Ομάδες"
edit: "Επεξεργασία"
modals:
select_option: "Διαλέξτε μία επιλογή..."
spam:
Expand Down
18 changes: 10 additions & 8 deletions config/locales/client.es.yml
Original file line number Diff line number Diff line change
Expand Up @@ -138,6 +138,14 @@ es:
label: "Temperatura"
discourse_ai:
title: "IA"
features:
back: "Volver"
list:
header:
name: "Nombre"
groups: "Grupos"
edit: "Editar"
set_up: "Configurar"
modals:
select_option: "Selecciona una opción..."
spam:
Expand Down Expand Up @@ -334,7 +342,6 @@ es:
name: "ID del modelo"
provider: "Proveedor"
tokenizer: "Tokenizador"
max_prompt_tokens: "Número de tokens para la solicitud"
url: "URL del servicio que aloja el modelo"
api_key: "Clave API del servicio que aloja el modelo"
enabled_chat_bot: "Permitir selector de bot de IA"
Expand Down Expand Up @@ -380,12 +387,8 @@ es:
anthropic-claude-3-7-sonnet: "El modelo antrópico más inteligente"
anthropic-claude-3-5-haiku: "Rápido y rentable"
anthropic-claude-3-opus: "Sobresale en la escritura y en tareas complejas"
google-gemini-1-5-pro: "Modelo multimodal de tamaño medio capaz de realizar una amplia gama de tareas"
google-gemini-1-5-flash: "Ligero, rápido y rentable con razonamiento multimodal"
open_ai-gpt-4-turbo: "Modelo de alta inteligencia de la generación anterior"
open_ai-gpt-4o: "Modelo de alta inteligencia para tareas complejas de varios pasos"
open_ai-gpt-4o-mini: "Modelo pequeño, asequible y rápido para tareas ligeras"
open_ai-o1-mini: "Modelo de razonamiento rentable"
google-gemini-2-5-pro: "Modelo multimodal de tamaño medio capaz de realizar una amplia gama de tareas"
google-gemini-2-0-flash: "Ligero, rápido y rentable con razonamiento multimodal"
samba_nova-Meta-Llama-3-1-8B-Instruct: "Modelo multilingüe, ligero y eficaz"
samba_nova-Meta-Llama-3-3-70B-Instruct": "Potente modelo polivalente"
mistral-mistral-large-latest: "El modelo más potente de Mistral"
Expand All @@ -408,7 +411,6 @@ es:
success: "Éxito!"
failure: "Al intentar contactar con la modelo, se devolvió este error: %{error}"
hints:
max_prompt_tokens: "Número máximo de tokens para el aviso. Como regla general, debe ser el 50 % de la ventana de contexto del modelo."
name: "Incluimos esto en la llamada a la API para especificar qué modelo utilizaremos"
vision_enabled: "Si está activada, la IA intentará comprender las imágenes. Depende del modelo utilizado que soporte la visión. Compatible con los últimos modelos de Anthropic, Google y OpenAI."
enabled_chat_bot: "Si se activa, los usuarios pueden seleccionar este modelo al crear MPs con el bot de IA"
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.et.yml
Original file line number Diff line number Diff line change
Expand Up @@ -34,6 +34,13 @@ et:
canned_reply:
label: "Vasta"
discourse_ai:
features:
back: "Tagasi"
list:
header:
name: "Nimi"
groups: "Grupid"
edit: "Muuda"
modals:
select_option: "Vali võimalus..."
spam:
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.fa_IR.yml
Original file line number Diff line number Diff line change
Expand Up @@ -60,6 +60,13 @@ fa_IR:
label: "مدل"
discourse_ai:
title: "هوش مصنوعی"
features:
back: "بازگشت"
list:
header:
name: "نام"
groups: "گروه‌ها"
edit: "ویرایش"
modals:
select_option: "یک گزینه را انتخاب کنید..."
spam:
Expand Down
18 changes: 10 additions & 8 deletions config/locales/client.fi.yml
Original file line number Diff line number Diff line change
Expand Up @@ -138,6 +138,14 @@ fi:
label: "Lämpötila"
discourse_ai:
title: "Tekoäly"
features:
back: "Takaisin"
list:
header:
name: "Nimi"
groups: "Ryhmät"
edit: "Muokkaa"
set_up: "Määritä"
modals:
select_option: "Valitse vaihtoehto..."
spam:
Expand Down Expand Up @@ -334,7 +342,6 @@ fi:
name: "Mallin tunnus"
provider: "Palveluntarjoaja"
tokenizer: "Tokenisoija"
max_prompt_tokens: "Kehotteen tokenien määrä"
url: "Mallia isännöivän palvelun URL-osoite"
api_key: "Mallia isännöivän palvelun API-avain"
enabled_chat_bot: "Salli tekoälybotin valitsin"
Expand Down Expand Up @@ -380,12 +387,8 @@ fi:
anthropic-claude-3-7-sonnet: "Anthropicin älykkäin malli"
anthropic-claude-3-5-haiku: "Nopea ja kustannustehokas"
anthropic-claude-3-opus: "Erinomainen kirjoittamisessa ja monimutkaisissa tehtävissä"
google-gemini-1-5-pro: "Keskikokoinen multimodaalinen malli, joka pystyy suorittamaan monenlaisia tehtäviä"
google-gemini-1-5-flash: "Kevyt, nopea ja kustannustehokas multimodaalisella päättelyllä"
open_ai-gpt-4-turbo: "Edellisen sukupolven älykäs malli"
open_ai-gpt-4o: "Älykäs malli monimutkaisiin, monivaiheisiin tehtäviin"
open_ai-gpt-4o-mini: "Edullinen ja nopea pieni malli kevyisiin tehtäviin"
open_ai-o1-mini: "Kustannustehokas päättelymalli"
google-gemini-2-5-pro: "Keskikokoinen multimodaalinen malli, joka pystyy suorittamaan monenlaisia tehtäviä"
google-gemini-2-0-flash: "Kevyt, nopea ja kustannustehokas multimodaalisella päättelyllä"
samba_nova-Meta-Llama-3-1-8B-Instruct: "Tehokas kevyt monikielinen malli"
samba_nova-Meta-Llama-3-3-70B-Instruct": "Tehokas monikäyttöinen malli"
mistral-mistral-large-latest: "Mistralin tehokkain malli"
Expand All @@ -408,7 +411,6 @@ fi:
success: "Onnistui!"
failure: "Yritys ottaa yhteyttä malliin palautti tämän virheen: %{error}"
hints:
max_prompt_tokens: "Kehotteen tokenien enimmäismäärä. Nyrkkisääntönä tämän pitäisi olla 50 % mallin konteksti-ikkunasta."
name: "Sisällytämme tämän API-kutsuun määrittääksemme, mitä mallia käytämme"
vision_enabled: "Jos tämä on käytössä, tekoäly yrittää ymmärtää kuvia. Tämä riippuu siitä, tukeeko käytettävä malli näköä. Anthropicin, Googlen ja OpenAI:n uusimmat mallit tukevat näköä."
enabled_chat_bot: "Jos tämä on käytössä, käyttäjät voivat valita tämän mallin luodessaan yksityisviestejä tekoälybotin kanssa"
Expand Down
18 changes: 10 additions & 8 deletions config/locales/client.fr.yml
Original file line number Diff line number Diff line change
Expand Up @@ -138,6 +138,14 @@ fr:
label: "Température"
discourse_ai:
title: "IA"
features:
back: "Retour"
list:
header:
name: "Nom"
groups: "Groupes"
edit: "Modifier"
set_up: "Configurer"
modals:
select_option: "Sélectionnez une option..."
spam:
Expand Down Expand Up @@ -334,7 +342,6 @@ fr:
name: "ID du modèle"
provider: "Fournisseur"
tokenizer: "Tokéniseur"
max_prompt_tokens: "Nombre de jetons pour l'invite"
url: "URL du service hébergeant le modèle"
api_key: "Clé API du service hébergeant le modèle"
enabled_chat_bot: "Autoriser le sélecteur de robot IA"
Expand Down Expand Up @@ -380,12 +387,8 @@ fr:
anthropic-claude-3-7-sonnet: "Le modèle le plus intelligent d'Anthropic"
anthropic-claude-3-5-haiku: "Rapide et économique"
anthropic-claude-3-opus: "Excelle dans l'écriture et les tâches complexes"
google-gemini-1-5-pro: "Modèle multimodal de taille moyenne capable d'effectuer une large gamme de tâches"
google-gemini-1-5-flash: "Léger, rapide et économique avec raisonnement multimodal"
open_ai-gpt-4-turbo: "Modèle de haute intelligence de la génération précédente"
open_ai-gpt-4o: "Modèle de haute intelligence pour les tâches complexes en plusieurs étapes"
open_ai-gpt-4o-mini: "Petit modèle abordable et rapide pour les tâches légères"
open_ai-o1-mini: "Modèle de raisonnement rentable"
google-gemini-2-5-pro: "Modèle multimodal de taille moyenne capable d'effectuer une large gamme de tâches"
google-gemini-2-0-flash: "Léger, rapide et économique avec raisonnement multimodal"
samba_nova-Meta-Llama-3-1-8B-Instruct: "Modèle multilingue léger et efficace"
samba_nova-Meta-Llama-3-3-70B-Instruct": "Modèle polyvalent et puissant"
mistral-mistral-large-latest: "Le modèle le plus puissant de Mistral"
Expand All @@ -408,7 +411,6 @@ fr:
success: "Succès !"
failure: "La tentative de contact avec le modèle a renvoyé cette erreur : %{error}"
hints:
max_prompt_tokens: "Nombre maximal de jetons pour l'invite. En règle générale, cela devrait représenter 50 % de la fenêtre contextuelle du modèle."
name: "Nous l'incluons dans l'appel d'API pour spécifier le modèle que nous allons utiliser"
vision_enabled: "Si cette option est activée, l'IA tentera de comprendre les images. Cela dépend du modèle utilisé prenant en charge la vision. Pris en charge par les derniers modèles d'Anthropic, Google et OpenAI."
enabled_chat_bot: "Si cette option est activée, les utilisateurs peuvent sélectionner ce modèle lors de la création de MD avec le robot IA"
Expand Down
7 changes: 7 additions & 0 deletions config/locales/client.gl.yml
Original file line number Diff line number Diff line change
Expand Up @@ -36,6 +36,13 @@ gl:
canned_reply:
label: "Responder"
discourse_ai:
features:
back: "Volver"
list:
header:
name: "Nome"
groups: "Grupos"
edit: "Editar"
modals:
select_option: "Seleccione unha opción..."
spam:
Expand Down
Loading