|
| 1 | +--- |
| 2 | +title: 'Comment installer un agent IA sur un VPS OVHcloud' |
| 3 | +excerpt: 'Découvrez comment déployer un agent IA comme Open Interpreter ou GPT4All sur un VPS OVHcloud' |
| 4 | +updated: 2025-08-18 |
| 5 | +--- |
| 6 | + |
| 7 | +## Objectif |
| 8 | + |
| 9 | +Ce guide explique comment déployer un agent IA local sur un VPS OVHcloud, sans dépendre du cloud de fournisseurs externes. Vous utiliserez pour cela un conteneur Docker prêt à l'emploi contenant un agent IA open source comme [Open Interpreter](https://github.com/openinterpreter/open-interpreter), [GPT4All](https://github.com/nomic-ai/gpt4all) ou [Auto-GPT](https://github.com/Significant-Gravitas/AutoGPT). |
| 10 | + |
| 11 | +**Découvrez comment déployer un agent IA comme Open Interpreter ou GPT4All sur un VPS OVHcloud.** |
| 12 | + |
| 13 | +## Prérequis |
| 14 | + |
| 15 | +- Disposer d'un [VPS](/links/bare-metal/vps) fonctionnel (Debian 11 ou supérieur recommandé) |
| 16 | +- Disposer d'un accès administrateur (sudo) via SSH à votre serveur |
| 17 | +- Python ≥ 3.10 installé sur le VPS |
| 18 | + |
| 19 | +## En pratique |
| 20 | + |
| 21 | +### Mettre à jour votre VPS et installer Python <a name="step1"></a> |
| 22 | + |
| 23 | +Ouvrez un terminal et connectez-vous à votre VPS avec la commande suivante (en remplaçant `IP_VPS` par la véritable IP) : |
| 24 | + |
| 25 | +```bash |
| 26 | +ssh <user>@IP_VPS |
| 27 | +``` |
| 28 | + |
| 29 | +Mettez à jour les paquets : |
| 30 | + |
| 31 | +```bash |
| 32 | +sudo apt update && sudo apt upgrade -y |
| 33 | +``` |
| 34 | + |
| 35 | +Vérifiez que Python ≥ 3.10 est installé : |
| 36 | + |
| 37 | +```bash |
| 38 | +python3 --version |
| 39 | +``` |
| 40 | + |
| 41 | +Si nécessaire, installez Python 3.10+ et pip : |
| 42 | + |
| 43 | +```bash |
| 44 | +sudo apt install -y python3 python3-pip python3-venv |
| 45 | +``` |
| 46 | + |
| 47 | +### Créer un environnement virtuel et installer Open Interpreter <a name="step2"></a> |
| 48 | + |
| 49 | +Les environnements récents limitent l’usage de `pip` globalement. Il est recommandé de créer et d'utiliser un environnement virtuel : |
| 50 | + |
| 51 | +```bash |
| 52 | +python3 -m venv ~/venv-openinterpreter |
| 53 | +source ~/venv-openinterpreter/bin/activate |
| 54 | +``` |
| 55 | + |
| 56 | +Installez Open Interpreter : |
| 57 | + |
| 58 | +```bash |
| 59 | +pip install --upgrade pip |
| 60 | +pip install open-interpreter |
| 61 | +``` |
| 62 | + |
| 63 | +### Configurer un modèle IA pour l’agent (local ou distant) <a name="step3"></a> |
| 64 | + |
| 65 | +#### Option 1 – Utiliser OpenAI (GPT-4o, GPT-3.5, etc.) |
| 66 | + |
| 67 | +Vous devez disposer d’une clé API OpenAI. Ajoutez-la lors du premier lancement ou en la définissant au préalable : |
| 68 | + |
| 69 | +```bash |
| 70 | +export OPENAI_API_KEY="API_KEY" |
| 71 | +interpreter |
| 72 | +``` |
| 73 | + |
| 74 | +Suivez ensuite les instructions. |
| 75 | + |
| 76 | +#### Option 2 – Utiliser un modèle local (via Ollama) |
| 77 | + |
| 78 | +Si vous ne souhaitez pas utiliser OpenAI, exécutez un modèle local grâce à Ollama : |
| 79 | + |
| 80 | +```bash |
| 81 | +interpreter --local |
| 82 | +``` |
| 83 | + |
| 84 | +Cela vous proposera plusieurs options (Ollama, LM Studio, etc.). Nous vous recommandons d'utiliser Ollama, car il est facile à installer et compatible avec plusieurs modèles modernes comme `llama3` ou `mistral`. |
| 85 | + |
| 86 | +Installez Ollama : |
| 87 | + |
| 88 | +```bash |
| 89 | +sudo apt install curl -y |
| 90 | +curl -fsSL https://ollama.com/install.sh | sh |
| 91 | +exec $SHELL |
| 92 | +``` |
| 93 | + |
| 94 | +Chargez le modèle : |
| 95 | + |
| 96 | +```bash |
| 97 | +ollama pull mistral |
| 98 | +``` |
| 99 | + |
| 100 | +Puis relancez : |
| 101 | + |
| 102 | +```bash |
| 103 | +interpreter --local |
| 104 | +``` |
| 105 | + |
| 106 | +#### Erreurs fréquentes |
| 107 | + |
| 108 | +**Model requires more system memory (6 GiB) than is available (1 GiB)** |
| 109 | + |
| 110 | +Cette erreur indique que votre VPS n’a pas assez de mémoire vive (RAM). Voici vos options : |
| 111 | + |
| 112 | +- Opter pour un VPS disposant d'au moins 8 Go de RAM. |
| 113 | +- Utiliser l'API OpenAI (voir `Option 1` ci-dessus). |
| 114 | +- Utiliser un modèle plus léger, comme Mistral. |
| 115 | + |
| 116 | +### Tester votre agent IA <a name="step4"></a> |
| 117 | + |
| 118 | +Testez les exemples d'utilisation suivants : |
| 119 | + |
| 120 | +```console |
| 121 | +Quel est le contenu du dossier /tmp ? |
| 122 | +``` |
| 123 | + |
| 124 | +Exemple de réponse : |
| 125 | + |
| 126 | +{.thumbnail} |
| 127 | + |
| 128 | +```console |
| 129 | +Écris un script Python qui liste les fichiers dans le dossier courant. |
| 130 | +``` |
| 131 | + |
| 132 | +L’agent interprète votre demande, génère du code et l’exécute localement. |
| 133 | + |
| 134 | +Exemple de réponse : |
| 135 | + |
| 136 | +{.thumbnail} |
| 137 | + |
| 138 | +### Conclusion <a name="step5"></a> |
| 139 | + |
| 140 | +Grâce à ce guide, vous avez installé un agent IA sur votre VPS OVHcloud, capable d’exécuter des commandes à partir de simples instructions en langage naturel. Que vous ayez opté pour un modèle distant comme GPT-4 via OpenAI ou un modèle local comme Mistral via Ollama, vous disposez désormais d’un assistant intelligent directement dans votre terminal, sans dépendance à une interface web ou à un service tiers. |
| 141 | + |
| 142 | +## Aller plus loin |
| 143 | + |
| 144 | +Pour des prestations spécialisées (référencement, développement, etc), contactez les [partenaires OVHcloud](/links/partner) |
| 145 | + |
| 146 | +Échangez avec notre [communauté d'utilisateurs](/links/community). |
0 commit comments