O sistema agora usa o modelo gemma:2b para melhor performance:
ollama pull gemma:2b- Mais rápido: ~2-3x mais rápido que phi3
- Menor: ~1.7GB vs ~2.3GB do phi3
- Eficiente: Ótimo para tarefas de classificação simples
| Modelo | Tamanho | Velocidade | Qualidade |
|---|---|---|---|
| gemma:2b | 1.7GB | ⚡⚡⚡ Rápido | ✅ Boa |
| phi3 | 2.3GB | ⚡⚡ Médio | ✅✅ Muito boa |
| llama2 | 3.8GB | ⚡ Lento | ✅✅✅ Excelente |
- Processamento unitário: 1 avaliação por vez para feedback instantâneo
- Prompt simplificado: Resposta mais direta e rápida
- Temperature=0: Respostas consistentes e rápidas
- Limite de tokens: Apenas 5 tokens de resposta
- Sem delays: Processamento contínuo sem pausas
Edite backend.py linha 65:
def get_ollama_sentiment_score(texto: str, model: str = "gemma:2b"):Modelos disponíveis:
gemma:2b- Recomendado (rápido)phi3- Balanceadollama2- Mais preciso (lento)mistral- Alternativa rápida