Puente comunitario del Model Context Protocol que expone la API HTTP local de Ollama—listado de modelos, pulls, chat y completions compatibles con OpenAI—a clientes MCP como Claude Desktop y Cursor. Publicado en npm como `ollama-mcp-server` (fork mantenido de NightTrek/Ollama-mcp); requiere el daemon de Ollama accesible en `OLLAMA_HOST` (por defecto `http://127.0.0.1:11434`).
Casos de uso
- Ejecutar agentes de código contra modelos locales sin inferencia en la nube
- Gestionar modelos Ollama desde un asistente con MCP
- Probar prompts multimodales con modelos visión instalados en local
- Alternar entre modelos locales y en la nube durante el desarrollo con la misma superficie MCP
- Mantener prompts sensibles en hardware propio conservando la UX de agente
Funciones principales
- Claude Desktop
- Cursor
- Codex
Relacionados
Relacionados
3 Entradas indexadas
Agent Protocol MCP
Implementa el estándar Agent Protocol permitiendo a clientes MCP coordinar con frameworks de agentes externos usando esquemas compartidos de task, step y artifact. Útil al componer múltiples agentes donde uno pasa trabajo a agentes especializados. Soporta registro de agentes y seguimiento de estado.
Shopify Dev MCP
Servidor MCP oficial Shopify Dev dentro del Shopify AI Toolkit: conecta Claude Code, Cursor, VS Code, Gemini CLI, Codex y clientes similares a la documentación para desarrolladores de Shopify, esquemas GraphQL y flujos de validación sin adivinar las APIs. Se ejecuta en local con npx mediante el paquete @shopify/dev-mcp; Shopify indica que no requiere autenticación para este servidor de recursos de desarrollo. Forma parte del Toolkit junto a plugins y paquetes de skills opcionales.
AWS MCP
Puentea operaciones de API de AWS a agentes de IA para gestión de instancias EC2, operaciones de buckets S3, inspección de funciones Lambda, análisis de políticas IAM y recuperación de logs de CloudWatch. Usa tus credenciales AWS existentes configuradas en la máquina. Soporta configuraciones multi-cuenta vía asunción de roles.