|
| 1 | +# Guia Alternativo: VSCode com Continue.dev vs. GitHub Copilot |
| 2 | + |
| 3 | +Este documento serve como um guia para utilizar o `Continue.dev` no VSCode, oferecendo um plano para as mesmas tarefas do guia anterior e um comparativo direto com o GitHub Copilot. |
| 4 | + |
| 5 | +`Continue.dev` é uma extensão open-source que transforma seu IDE em uma ferramenta de desenvolvimento assistida por LLMs, com foco em flexibilidade, privacidade e customização. |
| 6 | + |
| 7 | +## 1. Plano de Tarefas com Continue.dev |
| 8 | + |
| 9 | +A configuração do `Continue.dev` é centralizada em um único arquivo Python (`~/.continue/config.py`), o que permite um controle muito granular. |
| 10 | + |
| 11 | +**Passo-a-passo geral:** |
| 12 | + |
| 13 | +1. Instale a extensão `Continue` a partir do VSCode Marketplace. |
| 14 | +2. Abra o painel do Continue e clique no ícone de engrenagem ou use o comando `Ctrl/Cmd + L` e digite `> config` para abrir o arquivo `config.py`. |
| 15 | +3. Edite o arquivo `config.py` com as configurações desejadas. |
| 16 | + |
| 17 | +--- |
| 18 | + |
| 19 | +### a. Configurando com OpenRouter |
| 20 | + |
| 21 | +Adicione um modelo do OpenRouter à lista de modelos no seu `config.py`. |
| 22 | + |
| 23 | +```python |
| 24 | +from continuedev.core.config import Config |
| 25 | +from continuedev.core.models import Models |
| 26 | +from continuedev.libs.llm.openrouter import OpenRouter |
| 27 | + |
| 28 | +# ... outras importações |
| 29 | + |
| 30 | +config = Config( |
| 31 | + models=Models( |
| 32 | + default=OpenRouter( |
| 33 | + api_key="YOUR_OPENROUTER_API_KEY", |
| 34 | + model="mistralai/mistral-7b-instruct-free" # Ou outro modelo de sua escolha |
| 35 | + ) |
| 36 | + ) |
| 37 | +) |
| 38 | +``` |
| 39 | + |
| 40 | +### b. Configurando com Ollama (Local e WSL) |
| 41 | + |
| 42 | +Execute modelos na sua própria máquina para ter total privacidade e zero custo de API. |
| 43 | + |
| 44 | +```python |
| 45 | +from continuedev.core.config import Config |
| 46 | +from continuedev.core.models import Models |
| 47 | +from continuedev.libs.llm.ollama import Ollama |
| 48 | + |
| 49 | +# ... |
| 50 | + |
| 51 | +config = Config( |
| 52 | + models=Models( |
| 53 | + default=Ollama(model="codellama") # Garanta que o modelo foi baixado com `ollama pull codellama` |
| 54 | + ) |
| 55 | +) |
| 56 | +``` |
| 57 | +**Para WSL:** O princípio é o mesmo. Se o seu servidor Ollama estiver rodando dentro do WSL, o `Continue.dev` (rodando no VSCode conectado ao WSL) irá encontrá-lo em `localhost` sem configurações adicionais. |
| 58 | + |
| 59 | +### c. Configurando com um Proxy |
| 60 | + |
| 61 | +`Continue.dev` respeita variáveis de ambiente padrão como `HTTP_PROXY` e `HTTPS_PROXY`. Alternativamente, você pode especificar uma `api_base` para provedores que a suportam. |
| 62 | + |
| 63 | +**Método 1: Variáveis de Ambiente (Recomendado)** |
| 64 | + |
| 65 | +No seu terminal, antes de iniciar o VSCode: |
| 66 | +```bash |
| 67 | +export HTTPS_PROXY="http://SEU_PROXY_HOST:PORTA" |
| 68 | +code . |
| 69 | +``` |
| 70 | + |
| 71 | +**Método 2: `api_base` (Para OpenAI e compatíveis)** |
| 72 | + |
| 73 | +```python |
| 74 | +from continuedev.core.config import Config |
| 75 | +from continuedev.core.models import Models |
| 76 | +from continuedev.libs.llm.openai import OpenAI |
| 77 | + |
| 78 | +# ... |
| 79 | + |
| 80 | +config = Config( |
| 81 | + models=Models( |
| 82 | + default=OpenAI( |
| 83 | + api_key="YOUR_OPENAI_API_KEY", |
| 84 | + model="gpt-4o", |
| 85 | + api_base="https://SUA_URL_DE_PROXY/v1" # Endereço do proxy |
| 86 | + ) |
| 87 | + ) |
| 88 | +) |
| 89 | +``` |
| 90 | + |
| 91 | +## 2. Comparativo: Continue.dev vs. GitHub Copilot |
| 92 | + |
| 93 | +| Característica | GitHub Copilot | Continue.dev | |
| 94 | +| :--- | :--- | :--- | |
| 95 | +| **Modelos Suportados** | Modelos proprietários da OpenAI (GPT-3.5, GPT-4) otimizados pela Microsoft. | Quase qualquer modelo: Ollama, OpenAI, Gemini, Claude, OpenRouter, etc. | |
| 96 | +| **Custo** | Assinatura paga (mensal/anual). | A extensão é gratuita. O custo é o da API do modelo que você escolher (ou zero, se usar Ollama local). | |
| 97 | +| **Código-Fonte** | Fechado. | **Aberto (Open-Source)**. | |
| 98 | +| **Privacidade** | O código é enviado aos servidores da Microsoft (com políticas de privacidade). | **Controle total.** Com modelos locais (Ollama), nada sai da sua máquina. | |
| 99 | +| **Customização** | Baixa. Algumas opções de configuração e exclusão de arquivos. | **Extremamente alta.** Configuração via Python, criação de comandos (`/slash_commands`), customização de contexto. | |
| 100 | +| **Gerenciamento de Contexto** | Automático, baseado nos arquivos abertos. | **Explícito e poderoso.** Use `@` para adicionar arquivos, pastas, documentação, problemas do GitHub e mais ao contexto. | |
| 101 | +| **Interface do Usuário** | Foco em autocompletar *inline*. Um painel de chat separado (`Copilot Chat`). | Foco no painel de chat interativo, com autocompletar *inline* como um recurso complementar. | |
| 102 | +| **Configuração Inicial**| "Funciona ao ligar" (Out-of-the-box). Praticamente nenhuma configuração. | Requer configuração inicial no arquivo `config.py` para escolher e autenticar seus modelos. | |
| 103 | + |
| 104 | + |
| 105 | +## 3. Plano de Migração: Do Copilot para o Continue.dev |
| 106 | + |
| 107 | +Migrar é um processo simples e direto: |
| 108 | + |
| 109 | +1. **Instale o Continue.dev:** Procure por "Continue" no VSCode Marketplace e instale a extensão. |
| 110 | +2. **Desabilite o GitHub Copilot:** Para evitar conflitos de atalhos e sugestões duplicadas, é altamente recomendado desabilitar ou desinstalar as extensões `GitHub Copilot` e `GitHub Copilot Chat`. Vá para a aba de Extensões, encontre o Copilot e clique em `Disable (Workspace)`. |
| 111 | +3. **Configure seu Primeiro Modelo:** Siga as instruções da **Seção 1** deste guia para configurar seu `config.py` com o provedor de sua escolha (Ollama é um ótimo ponto de partida por ser gratuito e local). |
| 112 | +4. **Aprenda o Fluxo de Trabalho:** |
| 113 | + * Use `Ctrl + L` para abrir a caixa de diálogo do Continue. |
| 114 | + * Use `Ctrl + J` (ou o atalho que configurar) para abrir o painel de chat. |
| 115 | + * Digite `/` no chat para ver os comandos disponíveis (ex: `/edit`, `/fix`, `/test`). |
| 116 | + * Digite `@` para ver os provedores de contexto (ex: `@file`, `@terminal`, `@docs`). |
| 117 | + |
| 118 | +## 4. Análise: Ganhos e Perdas na Migração |
| 119 | + |
| 120 | +### O que você GANHA com a migração para o Continue.dev: |
| 121 | + |
| 122 | +1. **Flexibilidade Total:** Você não fica preso a um único provedor. Pode usar o melhor modelo para cada tarefa, seja ele open-source, da Google, Anthropic ou OpenAI. |
| 123 | +2. **Controle Absoluto e Privacidade:** A capacidade de rodar 100% localmente com Ollama é um ganho imenso para empresas com políticas de privacidade restritas ou para desenvolvedores que não querem que seu código saia da máquina. |
| 124 | +3. **Potencial de Custo Zero:** Ao usar modelos locais, o único custo é o do seu próprio hardware. |
| 125 | +4. **Customização Profunda:** A capacidade de criar seus próprios comandos e automatizar fluxos de trabalho no `config.py` permite adaptar a ferramenta exatamente às suas necessidades. |
| 126 | +5. **Gerenciamento de Contexto Superior:** O sistema de `@` do Continue é mais explícito e poderoso que o gerenciamento automático do Copilot, permitindo que você construa um contexto muito preciso para o LLM. |
| 127 | + |
| 128 | +### O que você PERDE (ou o que muda): |
| 129 | + |
| 130 | +1. **A Experiência "Mágica" do Autocomplete:** O autocompletar *inline* do GitHub Copilot é extremamente polido e bem integrado. Embora o Continue.dev também ofereça autocomplete, a experiência do Copilot é frequentemente considerada o padrão ouro em termos de fluidez. |
| 131 | +2. **Simplicidade "Out-of-the-Box":** O Copilot exige quase zero configuração. O Continue.dev tem uma curva de aprendizado inicial, exigindo que você configure seu primeiro modelo no `config.py`. |
| 132 | +3. **Modelo "Tudo-em-Um" Otimizado:** Com o Copilot, você recebe um modelo de alta qualidade que a Microsoft otimizou para tarefas de codificação. Com o Continue, a qualidade da assistência depende inteiramente do modelo que *você* escolhe e configura. |
0 commit comments