AI

Harbor: Stack LLM Contenerizado con un Solo Comando para Desarrollo Local de IA

Harbor es un kit de herramientas LLM contenerizado que inicia un stack de IA preconfigurado completo con Ollama, Open WebUI, ComfyUI y más con un solo comando.

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
Harbor: Stack LLM Contenerizado con un Solo Comando para Desarrollo Local de IA

La explosión de herramientas locales de IA ha creado un nuevo problema: configurar un entorno de desarrollo local de IA completo implica instalar y configurar múltiples servicios independientes, cada uno con sus propias dependencias, configuración y requisitos de red. Harbor resuelve esto con un solo comando docker compose up que inicia un stack de IA completo y preconfigurado en su máquina local.

Desarrollado como un proyecto de código abierto, Harbor empaqueta las herramientas locales de IA más populares en un stack contenerizado cohesivo. Con un comando, obtiene Ollama sirviendo LLMs locales, Open WebUI proporcionando una interfaz de chat compatible con ChatGPT, ComfyUI para flujos de trabajo de generación de imágenes y componentes opcionales como ChromaDB para almacenamiento vectorial, PostgreSQL para persistencia y varias herramientas de monitoreo y gestión.

Harbor se ha vuelto particularmente popular entre desarrolladores y entusiastas de IA que quieren experimentar con modelos locales de IA sin pasar horas en la configuración. También sirve como una arquitectura de referencia para equipos que despliegan infraestructura de IA, demostrando cómo interconectar los diversos componentes de un stack de IA moderno. La configuración de Docker Compose del proyecto está diseñada para ser completa y comprensible, facilitando su aprendizaje y adaptación.


¿Cómo Conecta la Arquitectura de Harbor los Componentes?

La arquitectura de Harbor está diseñada alrededor del principio de «conectividad preconfigurada» – cada componente está configurado para funcionar con todos los demás componentes sin configuración adicional.

graph TD
    A[Docker Compose] --> B[Red de Harbor]
    B --> C[Ollama]
    B --> D[Open WebUI]
    B --> E[ComfyUI]
    B --> F[ChromaDB]
    B --> G[PostgreSQL]
    H[Navegador del Usuario] --> D
    H --> E
    C --> I[LLMs Locales]
    D --> C
    E --> F
    D --> G
    D --> F

El cableado crítico que Harbor maneja automáticamente incluye: Open WebUI conectándose a Ollama para inferencia de modelos, ComfyUI accediendo a Ollama para codificación de texto, ambos servicios compartiendo los mismos recursos de GPU, ChromaDB proporcionando almacenamiento vectorial para flujos de trabajo RAG y PostgreSQL persistiendo el historial de chat y los datos de usuario.


¿Qué Componentes Incluye el Stack de Harbor?

Harbor ofrece un conjunto modular de componentes que pueden habilitarse o deshabilitarse según sus necesidades.

ComponentePropósitoPredeterminadoImagen Docker
OllamaServicio local de LLMHabilitadoollama/ollama
Open WebUIInterfaz de chatHabilitadoghcr.io/open-webui/open-webui
ComfyUIGeneración de imágenesDeshabilitadocomfyui/comfyui
ChromaDBBase de datos vectorialDeshabilitadochromadb/chroma
PostgreSQLBase de datos relacionalDeshabilitadopostgres:16
pgAdminGestión de base de datosDeshabilitadodpage/pgadmin4
WatchtowerActualización automática de contenedoresDeshabilitadocontainrrr/watchtower

Cada componente se define como un servicio de Docker Compose con variables de entorno, montajes de volumen y configuraciones de red preconfiguradas. Habilitar componentes adicionales típicamente requiere descomentar unas pocas líneas en el archivo docker-compose.yml.


¿Cómo se Configura Harbor para Diferentes Casos de Uso?

La flexibilidad de Harbor proviene de su configuración de variables de entorno y perfiles de Docker Compose.

Caso de UsoComponentes HabilitadosNotas de Configuración
Chat LLM básicoOllama + Open WebUIEstablezca OLLAMA_MODELS para modelos predeterminados
Prototipo RAG+ ChromaDBConfigure el modelo de embedding en Open WebUI
Generación de imágenes+ ComfyUIRequiere GPU, establezca COMFYUI_MODELS
Desarrollo completoTodos los componentesRequiere 16GB+ RAM, GPU recomendada
LigeroSolo Open WebUIUse Ollama en una máquina separada
Pruebas CISolo OllamaHuella de recursos mínima

La configuración se maneja a través de un archivo .env en la raíz del proyecto. Harbor incluye un archivo .env.example completo con comentarios detallados explicando cada configuración.


¿Qué Requisitos de Hardware Tiene Harbor?

Los requisitos de hardware varían significativamente dependiendo de qué componentes habilite y qué modelos ejecute.

ConfiguraciónRAM MínimaRAM RecomendadaGPUAlmacenamiento
Harbor + Ollama (chat)8 GB16 GBOpcional10-50 GB
Harbor + Ollama (RAG)16 GB32 GBOpcional20-100 GB
Harbor + Ollama + ComfyUI16 GB32 GB8GB+ VRAM50-200 GB
Stack completo de Harbor32 GB64 GB12GB+ VRAM100-500 GB

Ollama puede ejecutarse en sistemas solo CPU para modelos pequeños (3B-13B parámetros), pero los modelos más grandes (30B+) y la generación de imágenes con ComfyUI requieren una GPU capaz. Harbor expone automáticamente los dispositivos GPU a los contenedores cuando están disponibles.


FAQ

¿Qué es Harbor? Harbor es un kit de herramientas LLM contenerizado de código abierto que inicia un stack de IA preconfigurado completo – incluyendo Ollama, Open WebUI, ComfyUI y más – con un solo comando de Docker Compose para desarrollo local de IA.

¿Qué componentes incluye el stack de Harbor? Harbor incluye Ollama para servicio local de modelos, Open WebUI para una interfaz tipo ChatGPT, ComfyUI para flujos de trabajo de Stable Diffusion y componentes opcionales como ChromaDB para almacenamiento vectorial, PostgreSQL para persistencia y herramientas de monitoreo.

¿Cómo empiezo con Harbor? Necesita Docker y Docker Compose instalados. Clone el repositorio, opcionalmente edite la configuración y ejecute docker compose up. Harbor descargará e iniciará todos los componentes automáticamente.

¿Puedo personalizar qué componentes despliega Harbor? Sí, Harbor utiliza perfiles de Docker Compose componibles y variables de entorno. Puede habilitar o deshabilitar componentes individuales, configurar puertos, establecer límites de recursos y usar diferentes backends de modelos a través de la configuración.

¿Es Harbor adecuado para despliegue en producción? Harbor está diseñado principalmente para desarrollo local y prototipado. Para uso en producción, proporciona una base sólida que puede adaptarse con infraestructura adicional de seguridad, escalado y monitoreo.


Lecturas Adicionales

TAG
CATEGORIES