Гибкая библиотека для работы с различными LLM провайдерами
- 🔄 Единый интерфейс для всех LLM провайдеров
- 🚀 Асинхронная работа из коробки
- 📊 Мониторинг использования и стоимости
- 🎨 Красивый CLI интерфейс
- 🔌 Легкое добавление новых провайдеров
pip install send-2-llm # Базовая установкаpip install "send-2-llm[openai]" # Только OpenAI
pip install "send-2-llm[anthropic]" # Только Anthropic
pip install "send-2-llm[gemini]" # Только Gemini
pip install "send-2-llm[all]" # Все провайдеры + инструменты разработки# Установка Gemini провайдера
./scripts/install/gemini.shfrom send_2_llm import LLMClient
from send_2_llm.types import ProviderType, LLMRequest
async def main():
client = LLMClient(provider_type=ProviderType.OPENAI)
response = await client.generate(
LLMRequest(
prompt="Привет, как дела?",
max_tokens=100
)
)
print(response.text)
if __name__ == "__main__":
import asyncio
asyncio.run(main())Полная документация доступна на GitHub Pages
Для разработки установите дополнительные зависимости:
pip install "send-2-llm[dev]"send_2_llm/
├── docs/ # Документация
├── examples/ # Примеры использования
├── requirements/ # Зависимости по группам
│ └── providers/ # Зависимости провайдеров
├── scripts/ # Скрипты проекта
│ └── install/ # Установочные скрипты
├── src/ # Исходный код
└── tests/ # Тесты
MIT License - см. файл LICENSE