Skip to content

Commit 6b6160a

Browse files
committed
comparativo de plugns de ai coding
1 parent 5ffe5aa commit 6b6160a

File tree

2 files changed

+259
-0
lines changed

2 files changed

+259
-0
lines changed
Lines changed: 127 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,127 @@
1+
# Guia: Configurando o VSCode com Modelos de IA (OpenRouter, Ollama e Proxy)
2+
3+
Este guia detalha como configurar o Visual Studio Code para usar diferentes provedores de modelos de linguagem (LLMs) para assistência de codificação, aproveitando a funcionalidade nativa "Bring Your Own Key" (BYOK).
4+
5+
## 1. Configurando com OpenRouter
6+
7+
O OpenRouter oferece acesso a uma vasta gama de modelos de diferentes provedores através de uma única API.
8+
9+
**Passo-a-passo:**
10+
11+
1. **Obtenha a API Key:**
12+
* Acesse o site do [OpenRouter](https://openrouter.ai/).
13+
* Faça login e navegue até a sua página de "Keys" para criar ou copiar sua chave de API.
14+
15+
2. **Configure o VSCode:**
16+
* Abra o VSCode e vá para as configurações em JSON (`Ctrl + Shift + P` e procure por `Preferences: Open User Settings (JSON)`).
17+
* Adicione o seguinte bloco de configuração ao seu `settings.json`, substituindo `"MODELS_HERE"` pelos modelos que deseja usar (ex: `"mistralai/mistral-7b-instruct-free"`) e `"YOUR_OPENROUTER_API_KEY"` pela sua chave.
18+
19+
```json
20+
"github.copilot.languageModels": [
21+
{
22+
"provider": "openrouter",
23+
"model": "MODELS_HERE", // Ex: "mistralai/mistral-7b-instruct-free" ou "google/gemini-flash-1.5"
24+
"apiKey": "YOUR_OPENROUTER_API_KEY",
25+
"url": "https://openrouter.ai/api/v1"
26+
}
27+
]
28+
```
29+
30+
* **Nota:** Você pode adicionar vários modelos e alternar entre eles diretamente no VSCode.
31+
32+
## 2. Configurando com Ollama (Local e WSL)
33+
34+
Ollama permite que você execute modelos de linguagem open-source diretamente na sua máquina.
35+
36+
### a. Ollama Local (Linux/macOS)
37+
38+
1. **Instale o Ollama:** Siga as instruções de instalação no [site oficial do Ollama](https://ollama.com/).
39+
2. **Baixe um Modelo:** Abra seu terminal e baixe um modelo de codificação.
40+
```bash
41+
ollama pull codellama
42+
```
43+
3. **Configure o VSCode:** Adicione a seguinte configuração ao seu `settings.json`. O Ollama, por padrão, roda em `http://localhost:11434`.
44+
45+
```json
46+
"github.copilot.languageModels": [
47+
{
48+
"provider": "ollama",
49+
"model": "codellama", // Ou qualquer outro modelo que você baixou
50+
"url": "http://localhost:11434"
51+
}
52+
]
53+
```
54+
55+
### b. Ollama no Windows com WSL (Windows Subsystem for Linux)
56+
57+
A maneira mais fácil e recomendada é rodar o VSCode diretamente de dentro do ambiente WSL.
58+
59+
1. **Instale o Ollama no WSL:** Abra seu terminal WSL e instale o Ollama seguindo as instruções para Linux.
60+
2. **Baixe um Modelo no WSL:**
61+
```bash
62+
ollama pull deepseek-coder
63+
```
64+
3. **Abra o VSCode no WSL:** No seu terminal WSL, navegue até a pasta do seu projeto e digite `code .`. Isso abrirá o VSCode conectado ao ambiente WSL.
65+
4. **Configure o VSCode (mesmo que local):** Como o VSCode está rodando "dentro" do WSL, o `localhost` se refere ao próprio WSL. A configuração no `settings.json` é idêntica à de um ambiente Linux nativo.
66+
67+
```json
68+
"github.copilot.languageModels": [
69+
{
70+
"provider": "ollama",
71+
"model": "deepseek-coder",
72+
"url": "http://localhost:11434"
73+
}
74+
]
75+
```
76+
77+
## 3. Rodando com um Proxy (Ex: OpenAI)
78+
79+
Se você está atrás de uma VPN ou firewall que bloqueia o acesso direto a serviços como OpenAI, você pode configurar o VSCode para usar um proxy.
80+
81+
1. **Configure o Proxy no VSCode:** Adicione a seguinte configuração global ao seu `settings.json`, substituindo pelo endereço e porta do seu proxy.
82+
83+
```json
84+
"http.proxy": "http://SEU_PROXY_HOST:PORTA"
85+
```
86+
87+
2. **Configure o Provedor de Modelo:** Agora, configure o provedor do modelo (como OpenAI) normalmente. O VSCode automaticamente roteará a requisição através do proxy configurado.
88+
89+
```json
90+
"github.copilot.languageModels": [
91+
{
92+
"provider": "openai",
93+
"model": "gpt-4o",
94+
"apiKey": "YOUR_OPENAI_API_KEY"
95+
}
96+
]
97+
```
98+
* **Importante:** A configuração de `languageModels` não possui um campo de proxy próprio; ela respeita a configuração `http.proxy` global do VSCode.
99+
100+
## 4. Recomendações de Hardware para Ollama
101+
102+
O desempenho do Ollama depende principalmente da **RAM** (para carregar o modelo) e da **VRAM** (memória da GPU, para processamento rápido).
103+
104+
* **RAM Mínima:**
105+
* **8 GB:** Suficiente para modelos de ~3 bilhões (3B) de parâmetros com quantização (ex: `phi-3`).
106+
* **16 GB:** Recomendado para modelos de 7B (ex: `codellama:7b`, `llama3:8b`). Essa é a configuração mais comum e com melhor custo-benefício.
107+
* **32 GB+:** Necessário para modelos de 13B ou maiores (ex: `codellama:34b`).
108+
109+
* **GPU (Altamente Recomendado):**
110+
* **NVIDIA:** A melhor opção devido ao suporte CUDA. Uma GPU com **8 GB de VRAM** é um bom ponto de partida para modelos de 7B. Para modelos maiores ou processamento mais rápido, 12 GB, 16 GB ou mais são ideais.
111+
* **AMD / Apple Silicon:** O Ollama tem um bom suporte para GPUs AMD (via ROCm) e para o Metal da Apple, tornando MacBooks com chips M1/M2/M3 excelentes máquinas para rodar modelos localmente.
112+
113+
## 5. Sugestões de Modelos Open-Source (Ollama)
114+
115+
* **Para Codificação (Coding):**
116+
* `codellama`: Um clássico, treinado especificamente para código.
117+
* `deepseek-coder`: Frequentemente no topo dos benchmarks de codificação. É uma escolha excelente e muito poderosa.
118+
* `starcoder2`: A nova geração do Starcoder, com bom desempenho em várias linguagens.
119+
* `phi-3`: Um modelo menor da Microsoft, surpreendentemente capaz para seu tamanho e ótimo para máquinas com menos recursos.
120+
121+
* **Para Chat e Dúvidas Gerais (Chat):**
122+
* `llama3`: O Llama 3 da Meta é um dos melhores modelos de chat geral disponíveis hoje. A versão 8B é rápida e muito coerente.
123+
* `mistral`: Rápido e de alta qualidade, uma alternativa excelente ao Llama.
124+
* `qwen2`: Um modelo recente com forte capacidade multilíngue e bom raciocínio.
125+
126+
* **Qual modelo mais se aproxima do "Claude Code"?**
127+
O "Claude 3 Opus" é um modelo proprietário de ponta, e igualá-lo com open-source é difícil, mas o que mais se aproxima em termos de capacidade de raciocínio complexo sobre código é provavelmente o **`deepseek-coder:33b`**. Ele é amplamente reconhecido pela sua performance de alto nível em tarefas de programação. Para uma experiência mais leve, mas ainda muito forte, o **`deepseek-coder:6.7b`** também é uma aposta fantástica.
Lines changed: 132 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,132 @@
1+
# Guia Alternativo: VSCode com Continue.dev vs. GitHub Copilot
2+
3+
Este documento serve como um guia para utilizar o `Continue.dev` no VSCode, oferecendo um plano para as mesmas tarefas do guia anterior e um comparativo direto com o GitHub Copilot.
4+
5+
`Continue.dev` é uma extensão open-source que transforma seu IDE em uma ferramenta de desenvolvimento assistida por LLMs, com foco em flexibilidade, privacidade e customização.
6+
7+
## 1. Plano de Tarefas com Continue.dev
8+
9+
A configuração do `Continue.dev` é centralizada em um único arquivo Python (`~/.continue/config.py`), o que permite um controle muito granular.
10+
11+
**Passo-a-passo geral:**
12+
13+
1. Instale a extensão `Continue` a partir do VSCode Marketplace.
14+
2. Abra o painel do Continue e clique no ícone de engrenagem ou use o comando `Ctrl/Cmd + L` e digite `> config` para abrir o arquivo `config.py`.
15+
3. Edite o arquivo `config.py` com as configurações desejadas.
16+
17+
---
18+
19+
### a. Configurando com OpenRouter
20+
21+
Adicione um modelo do OpenRouter à lista de modelos no seu `config.py`.
22+
23+
```python
24+
from continuedev.core.config import Config
25+
from continuedev.core.models import Models
26+
from continuedev.libs.llm.openrouter import OpenRouter
27+
28+
# ... outras importações
29+
30+
config = Config(
31+
models=Models(
32+
default=OpenRouter(
33+
api_key="YOUR_OPENROUTER_API_KEY",
34+
model="mistralai/mistral-7b-instruct-free" # Ou outro modelo de sua escolha
35+
)
36+
)
37+
)
38+
```
39+
40+
### b. Configurando com Ollama (Local e WSL)
41+
42+
Execute modelos na sua própria máquina para ter total privacidade e zero custo de API.
43+
44+
```python
45+
from continuedev.core.config import Config
46+
from continuedev.core.models import Models
47+
from continuedev.libs.llm.ollama import Ollama
48+
49+
# ...
50+
51+
config = Config(
52+
models=Models(
53+
default=Ollama(model="codellama") # Garanta que o modelo foi baixado com `ollama pull codellama`
54+
)
55+
)
56+
```
57+
**Para WSL:** O princípio é o mesmo. Se o seu servidor Ollama estiver rodando dentro do WSL, o `Continue.dev` (rodando no VSCode conectado ao WSL) irá encontrá-lo em `localhost` sem configurações adicionais.
58+
59+
### c. Configurando com um Proxy
60+
61+
`Continue.dev` respeita variáveis de ambiente padrão como `HTTP_PROXY` e `HTTPS_PROXY`. Alternativamente, você pode especificar uma `api_base` para provedores que a suportam.
62+
63+
**Método 1: Variáveis de Ambiente (Recomendado)**
64+
65+
No seu terminal, antes de iniciar o VSCode:
66+
```bash
67+
export HTTPS_PROXY="http://SEU_PROXY_HOST:PORTA"
68+
code .
69+
```
70+
71+
**Método 2: `api_base` (Para OpenAI e compatíveis)**
72+
73+
```python
74+
from continuedev.core.config import Config
75+
from continuedev.core.models import Models
76+
from continuedev.libs.llm.openai import OpenAI
77+
78+
# ...
79+
80+
config = Config(
81+
models=Models(
82+
default=OpenAI(
83+
api_key="YOUR_OPENAI_API_KEY",
84+
model="gpt-4o",
85+
api_base="https://SUA_URL_DE_PROXY/v1" # Endereço do proxy
86+
)
87+
)
88+
)
89+
```
90+
91+
## 2. Comparativo: Continue.dev vs. GitHub Copilot
92+
93+
| Característica | GitHub Copilot | Continue.dev |
94+
| :--- | :--- | :--- |
95+
| **Modelos Suportados** | Modelos proprietários da OpenAI (GPT-3.5, GPT-4) otimizados pela Microsoft. | Quase qualquer modelo: Ollama, OpenAI, Gemini, Claude, OpenRouter, etc. |
96+
| **Custo** | Assinatura paga (mensal/anual). | A extensão é gratuita. O custo é o da API do modelo que você escolher (ou zero, se usar Ollama local). |
97+
| **Código-Fonte** | Fechado. | **Aberto (Open-Source)**. |
98+
| **Privacidade** | O código é enviado aos servidores da Microsoft (com políticas de privacidade). | **Controle total.** Com modelos locais (Ollama), nada sai da sua máquina. |
99+
| **Customização** | Baixa. Algumas opções de configuração e exclusão de arquivos. | **Extremamente alta.** Configuração via Python, criação de comandos (`/slash_commands`), customização de contexto. |
100+
| **Gerenciamento de Contexto** | Automático, baseado nos arquivos abertos. | **Explícito e poderoso.** Use `@` para adicionar arquivos, pastas, documentação, problemas do GitHub e mais ao contexto. |
101+
| **Interface do Usuário** | Foco em autocompletar *inline*. Um painel de chat separado (`Copilot Chat`). | Foco no painel de chat interativo, com autocompletar *inline* como um recurso complementar. |
102+
| **Configuração Inicial**| "Funciona ao ligar" (Out-of-the-box). Praticamente nenhuma configuração. | Requer configuração inicial no arquivo `config.py` para escolher e autenticar seus modelos. |
103+
104+
105+
## 3. Plano de Migração: Do Copilot para o Continue.dev
106+
107+
Migrar é um processo simples e direto:
108+
109+
1. **Instale o Continue.dev:** Procure por "Continue" no VSCode Marketplace e instale a extensão.
110+
2. **Desabilite o GitHub Copilot:** Para evitar conflitos de atalhos e sugestões duplicadas, é altamente recomendado desabilitar ou desinstalar as extensões `GitHub Copilot` e `GitHub Copilot Chat`. Vá para a aba de Extensões, encontre o Copilot e clique em `Disable (Workspace)`.
111+
3. **Configure seu Primeiro Modelo:** Siga as instruções da **Seção 1** deste guia para configurar seu `config.py` com o provedor de sua escolha (Ollama é um ótimo ponto de partida por ser gratuito e local).
112+
4. **Aprenda o Fluxo de Trabalho:**
113+
* Use `Ctrl + L` para abrir a caixa de diálogo do Continue.
114+
* Use `Ctrl + J` (ou o atalho que configurar) para abrir o painel de chat.
115+
* Digite `/` no chat para ver os comandos disponíveis (ex: `/edit`, `/fix`, `/test`).
116+
* Digite `@` para ver os provedores de contexto (ex: `@file`, `@terminal`, `@docs`).
117+
118+
## 4. Análise: Ganhos e Perdas na Migração
119+
120+
### O que você GANHA com a migração para o Continue.dev:
121+
122+
1. **Flexibilidade Total:** Você não fica preso a um único provedor. Pode usar o melhor modelo para cada tarefa, seja ele open-source, da Google, Anthropic ou OpenAI.
123+
2. **Controle Absoluto e Privacidade:** A capacidade de rodar 100% localmente com Ollama é um ganho imenso para empresas com políticas de privacidade restritas ou para desenvolvedores que não querem que seu código saia da máquina.
124+
3. **Potencial de Custo Zero:** Ao usar modelos locais, o único custo é o do seu próprio hardware.
125+
4. **Customização Profunda:** A capacidade de criar seus próprios comandos e automatizar fluxos de trabalho no `config.py` permite adaptar a ferramenta exatamente às suas necessidades.
126+
5. **Gerenciamento de Contexto Superior:** O sistema de `@` do Continue é mais explícito e poderoso que o gerenciamento automático do Copilot, permitindo que você construa um contexto muito preciso para o LLM.
127+
128+
### O que você PERDE (ou o que muda):
129+
130+
1. **A Experiência "Mágica" do Autocomplete:** O autocompletar *inline* do GitHub Copilot é extremamente polido e bem integrado. Embora o Continue.dev também ofereça autocomplete, a experiência do Copilot é frequentemente considerada o padrão ouro em termos de fluidez.
131+
2. **Simplicidade "Out-of-the-Box":** O Copilot exige quase zero configuração. O Continue.dev tem uma curva de aprendizado inicial, exigindo que você configure seu primeiro modelo no `config.py`.
132+
3. **Modelo "Tudo-em-Um" Otimizado:** Com o Copilot, você recebe um modelo de alta qualidade que a Microsoft otimizou para tarefas de codificação. Com o Continue, a qualidade da assistência depende inteiramente do modelo que *você* escolhe e configura.

0 commit comments

Comments
 (0)