Este repositorio contiene un Dockerfile y una configuración con docker-compose para ejecutar Ollama en un contenedor basado en Ubuntu 20.04. Se incluyen modelos preinstalados y un servicio de interfaz web con Open WebUI.
- Imagen base: Ubuntu 20.04
- Instalación automática de dependencias
- Descarga de modelos predefinidos
- Servicio de interfaz web con Open WebUI
- Uso de volúmenes para persistencia de datos
- Exposición de los puertos necesarios
Ejecuta el siguiente comando para construir y levantar los servicios:
docker-compose up -d --buildEsto iniciará los siguientes servicios:
- Ollama en el puerto
11434 - Open WebUI en el puerto
8080
Para verificar los modelos descargados dentro del contenedor, ejecuta:
docker exec -it ollama ollama listSi deseas agregar modelos adicionales, puedes ejecutar:
docker exec -it ollama ollama pull <modelo>Por ejemplo:
docker exec -it ollama ollama pull llama2:7b/
├── Dockerfile
├── entrypoint.sh
├── docker-compose.yml
├── README.md
- Los modelos se descargan dinámicamente al iniciar el contenedor, asegurando que
ollama serveesté en ejecución antes deollama pull. - Para mantener los modelos entre reinicios, se utiliza un volumen en
/root/.ollama.
docker-compose up -dSi deseas contribuir, abre un Pull Request con tus mejoras o reporta problemas en la sección de Issues.
Este proyecto se encuentra bajo la licencia MIT.

