diff --git a/chapters/en/chapter11/5.mdx b/chapters/en/chapter11/5.mdx index 479521698..ee6139329 100644 --- a/chapters/en/chapter11/5.mdx +++ b/chapters/en/chapter11/5.mdx @@ -92,7 +92,7 @@ Example: `"mmlu|abstract_algebra|0|0"` evaluates on MMLU's abstract algebra task Let's set up an evaluation pipeline for our finetuned model. We will evaluate the model on set of sub tasks that relate to the domain of medicine. -Here's a complete example of evaluating on automatic benchmarks relevant to one specific domain using Lighteval with the VLLM backend: +Here's a complete example of evaluating on automatic benchmarks relevant to one specific domain using Lighteval with the accelerate backend: ```bash lighteval accelerate \ diff --git a/chapters/ro/chapter11/5.mdx b/chapters/ro/chapter11/5.mdx index 6093775dc..c17c46791 100644 --- a/chapters/ro/chapter11/5.mdx +++ b/chapters/ro/chapter11/5.mdx @@ -92,7 +92,7 @@ Exemplu: `"mmlu|abstract_algebra|0|0"` evaluează pe sarcina de algebră abstrac Să configurăm un pipeline de evaluare pentru modelul nostru ajustat fin. Vom evalua modelul pe un set de sub-sarcini care se raportează la domeniul medicinei. -Iată un exemplu complet de evaluare pe criterii de referință automate relevante pentru un domeniu specific folosind Lighteval cu backend-ul VLLM: +Iată un exemplu complet de evaluare pe criterii de referință automate relevante pentru un domeniu specific folosind Lighteval cu backend-ul accelerate: ```bash lighteval accelerate \