La explosión de herramientas locales de IA ha creado un nuevo problema: configurar un entorno de desarrollo local de IA completo implica instalar y configurar múltiples servicios independientes, cada uno con sus propias dependencias, configuración y requisitos de red. Harbor resuelve esto con un solo comando docker compose up que inicia un stack de IA completo y preconfigurado en su máquina local.
Desarrollado como un proyecto de código abierto, Harbor empaqueta las herramientas locales de IA más populares en un stack contenerizado cohesivo. Con un comando, obtiene Ollama sirviendo LLMs locales, Open WebUI proporcionando una interfaz de chat compatible con ChatGPT, ComfyUI para flujos de trabajo de generación de imágenes y componentes opcionales como ChromaDB para almacenamiento vectorial, PostgreSQL para persistencia y varias herramientas de monitoreo y gestión.
Harbor se ha vuelto particularmente popular entre desarrolladores y entusiastas de IA que quieren experimentar con modelos locales de IA sin pasar horas en la configuración. También sirve como una arquitectura de referencia para equipos que despliegan infraestructura de IA, demostrando cómo interconectar los diversos componentes de un stack de IA moderno. La configuración de Docker Compose del proyecto está diseñada para ser completa y comprensible, facilitando su aprendizaje y adaptación.
¿Cómo Conecta la Arquitectura de Harbor los Componentes?
La arquitectura de Harbor está diseñada alrededor del principio de «conectividad preconfigurada» – cada componente está configurado para funcionar con todos los demás componentes sin configuración adicional.
graph TD
A[Docker Compose] --> B[Red de Harbor]
B --> C[Ollama]
B --> D[Open WebUI]
B --> E[ComfyUI]
B --> F[ChromaDB]
B --> G[PostgreSQL]
H[Navegador del Usuario] --> D
H --> E
C --> I[LLMs Locales]
D --> C
E --> F
D --> G
D --> F
El cableado crítico que Harbor maneja automáticamente incluye: Open WebUI conectándose a Ollama para inferencia de modelos, ComfyUI accediendo a Ollama para codificación de texto, ambos servicios compartiendo los mismos recursos de GPU, ChromaDB proporcionando almacenamiento vectorial para flujos de trabajo RAG y PostgreSQL persistiendo el historial de chat y los datos de usuario.
¿Qué Componentes Incluye el Stack de Harbor?
Harbor ofrece un conjunto modular de componentes que pueden habilitarse o deshabilitarse según sus necesidades.
| Componente | Propósito | Predeterminado | Imagen Docker |
|---|---|---|---|
| Ollama | Servicio local de LLM | Habilitado | ollama/ollama |
| Open WebUI | Interfaz de chat | Habilitado | ghcr.io/open-webui/open-webui |
| ComfyUI | Generación de imágenes | Deshabilitado | comfyui/comfyui |
| ChromaDB | Base de datos vectorial | Deshabilitado | chromadb/chroma |
| PostgreSQL | Base de datos relacional | Deshabilitado | postgres:16 |
| pgAdmin | Gestión de base de datos | Deshabilitado | dpage/pgadmin4 |
| Watchtower | Actualización automática de contenedores | Deshabilitado | containrrr/watchtower |
Cada componente se define como un servicio de Docker Compose con variables de entorno, montajes de volumen y configuraciones de red preconfiguradas. Habilitar componentes adicionales típicamente requiere descomentar unas pocas líneas en el archivo docker-compose.yml.
¿Cómo se Configura Harbor para Diferentes Casos de Uso?
La flexibilidad de Harbor proviene de su configuración de variables de entorno y perfiles de Docker Compose.
| Caso de Uso | Componentes Habilitados | Notas de Configuración |
|---|---|---|
| Chat LLM básico | Ollama + Open WebUI | Establezca OLLAMA_MODELS para modelos predeterminados |
| Prototipo RAG | + ChromaDB | Configure el modelo de embedding en Open WebUI |
| Generación de imágenes | + ComfyUI | Requiere GPU, establezca COMFYUI_MODELS |
| Desarrollo completo | Todos los componentes | Requiere 16GB+ RAM, GPU recomendada |
| Ligero | Solo Open WebUI | Use Ollama en una máquina separada |
| Pruebas CI | Solo Ollama | Huella de recursos mínima |
La configuración se maneja a través de un archivo .env en la raíz del proyecto. Harbor incluye un archivo .env.example completo con comentarios detallados explicando cada configuración.
¿Qué Requisitos de Hardware Tiene Harbor?
Los requisitos de hardware varían significativamente dependiendo de qué componentes habilite y qué modelos ejecute.
| Configuración | RAM Mínima | RAM Recomendada | GPU | Almacenamiento |
|---|---|---|---|---|
| Harbor + Ollama (chat) | 8 GB | 16 GB | Opcional | 10-50 GB |
| Harbor + Ollama (RAG) | 16 GB | 32 GB | Opcional | 20-100 GB |
| Harbor + Ollama + ComfyUI | 16 GB | 32 GB | 8GB+ VRAM | 50-200 GB |
| Stack completo de Harbor | 32 GB | 64 GB | 12GB+ VRAM | 100-500 GB |
Ollama puede ejecutarse en sistemas solo CPU para modelos pequeños (3B-13B parámetros), pero los modelos más grandes (30B+) y la generación de imágenes con ComfyUI requieren una GPU capaz. Harbor expone automáticamente los dispositivos GPU a los contenedores cuando están disponibles.
FAQ
¿Qué es Harbor? Harbor es un kit de herramientas LLM contenerizado de código abierto que inicia un stack de IA preconfigurado completo – incluyendo Ollama, Open WebUI, ComfyUI y más – con un solo comando de Docker Compose para desarrollo local de IA.
¿Qué componentes incluye el stack de Harbor? Harbor incluye Ollama para servicio local de modelos, Open WebUI para una interfaz tipo ChatGPT, ComfyUI para flujos de trabajo de Stable Diffusion y componentes opcionales como ChromaDB para almacenamiento vectorial, PostgreSQL para persistencia y herramientas de monitoreo.
¿Cómo empiezo con Harbor?
Necesita Docker y Docker Compose instalados. Clone el repositorio, opcionalmente edite la configuración y ejecute docker compose up. Harbor descargará e iniciará todos los componentes automáticamente.
¿Puedo personalizar qué componentes despliega Harbor? Sí, Harbor utiliza perfiles de Docker Compose componibles y variables de entorno. Puede habilitar o deshabilitar componentes individuales, configurar puertos, establecer límites de recursos y usar diferentes backends de modelos a través de la configuración.
¿Es Harbor adecuado para despliegue en producción? Harbor está diseñado principalmente para desarrollo local y prototipado. Para uso en producción, proporciona una base sólida que puede adaptarse con infraestructura adicional de seguridad, escalado y monitoreo.
Lecturas Adicionales
- Repositorio de GitHub de Harbor – Código fuente, configuración y guía de instalación
- Sitio Oficial de Ollama – Runtime local de LLM para servicio de modelos
- Documentación de Open WebUI – Interfaz tipo ChatGPT para LLMs locales
- Repositorio de GitHub de ComfyUI – Herramienta de flujo de trabajo de Stable Diffusion basada en nodos
- Documentación de Docker Compose – La herramienta de orquestación en la que se basa Harbor
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!