From c9a1ef5fdee7e22b1c6e79a187d752e18174e3dd Mon Sep 17 00:00:00 2001 From: Barajeel <0xsilomir@gmail.com> Date: Fri, 21 Feb 2025 20:14:35 +0300 Subject: [PATCH] docs: Fix minor typos in README --- README-ru.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/README-ru.md b/README-ru.md index 02dc7838..5d2ad97b 100644 --- a/README-ru.md +++ b/README-ru.md @@ -12,7 +12,7 @@

-[Japanese(日本語)](README-ja.md) | [Chinese(中文)](README-cn.md) | [Turkish (Türkçe)](README-tr.md) | [Arabic (العربية)](README-ar.md) | [Russian (русскийة)](README-ru.md) | Нам нужна ваша помощь, чтобы перевести этот README на ваш родной язык. +[Japanese(日本語)](README-ja.md) | [Chinese(中文)](README-cn.md) | [Turkish (Türkçe)](README-tr.md) | [Arabic (العربية)](README-ar.md) | [Russian (русский)](README-ru.md) | Нам нужна ваша помощь, чтобы перевести этот README на ваш родной язык. Нравится наша работа? ⭐ Поставьте нам звезду! @@ -177,7 +177,7 @@ gaianet start [+] Starting LlamaEdge API Server ... - Выполните следкющую команду для запуска LlamaEdge API Server: + Выполните следующую команду для запуска LlamaEdge API Server: wasmedge --dir .:./dashboard --nn-preload default:GGML:AUTO:Llama-2-7b-chat-hf-Q5_K_M.gguf --nn-preload embedding:GGML:AUTO:all-MiniLM-L6-v2-ggml-model-f16.gguf rag-api-server.wasm --model-name Llama-2-7b-chat-hf-Q5_K_M,all-MiniLM-L6-v2-ggml-model-f16 --ctx-size 4096,384 --prompt-template llama-2-chat --qdrant-collection-name default --web-ui ./ --socket-addr 0.0.0.0:8080 --log-prompts --log-stat --rag-prompt "Use the following pieces of context to answer the user's question.\nIf you don't know the answer, just say that you don't know, don't try to make up an answer.\n----------------\n"