O

MCP Entry

Ollama MCP Server

Puente comunitario del Model Context Protocol que expone la API HTTP local de Ollama—listado de modelos, pulls, chat y completions compatibles con OpenAI—a clientes MCP como Claude Desktop y Cursor. Publicado en npm como `ollama-mcp-server` (fork mantenido de NightTrek/Ollama-mcp); requiere el daemon de Ollama accesible en `OLLAMA_HOST` (por defecto `http://127.0.0.1:11434`).

Categoría Herramientas de desarrollo
Instalación npm
Runtime Node.js
ollamalocal-llmagents

Casos de uso

  • Ejecutar agentes de código contra modelos locales sin inferencia en la nube
  • Gestionar modelos Ollama desde un asistente con MCP
  • Probar prompts multimodales con modelos visión instalados en local
  • Alternar entre modelos locales y en la nube durante el desarrollo con la misma superficie MCP
  • Mantener prompts sensibles en hardware propio conservando la UX de agente

Funciones principales

  • Claude Desktop
  • Cursor
  • Codex

Relacionados

Relacionados

3 Entradas indexadas