Skip to content
#

llama-server

Here are 20 public repositories matching this topic...

CLI-утилита для управления llama-server на базе Python, для ОС Windows 10/11. Позволяет запускать и переключать LLM, используя только конфигурационный файл (config.ini). Реализован паттерн стратегия, для выбора моделей. Эта утилита разработана в первую очередь для видеокарт AMD (RX 6600 - 6700), не поддерживающих ROCM HIP SDK

  • Updated Mar 26, 2026
  • Python

Improve this page

Add a description, image, and links to the llama-server topic page so that developers can more easily learn about it.

Curate this topic

Add this topic to your repo

To associate your repository with the llama-server topic, visit your repo's landing page and select "manage topics."

Learn more