Die Bereitstellung von MCP-Servern (Model Context Protocol) war bisher oft ein komplexer Prozess – doch mit der Naftiko Shipyard und Cloudflare Containern ist dies nun in wenigen Minuten möglich. Ein neues Tutorial zeigt, wie Sie einen produktionsreifen MCP-Server mit nur einem Klick aufsetzen und sofort in Ihre KI-Anwendungen integrieren können.
Ein MCP-Server in Rekordzeit: So funktioniert die Bereitstellung
Das Naftiko Shipyard-Tutorial führt Entwickler durch elf Schritte, die von einfachen YAML-Konfigurationen bis zu einem vollwertigen MCP-Server reichen. Doch statt sich durch alle Schritte zu kämpfen, können Sie ab sofort direkt Schritt 11 überspringen – die vollständige Bereitstellung erfolgt mit einem einzigen Klick.
Diese One-Click-Lösung startet einen MCP-Server, der drei Protokolladapter aus einem einzigen YAML-Dokument generiert. Dazu gehören:
- Ein MCP-Adapter für Pfadwerkzeuge und Ressourcen
- Ein REST-Adapter, der unter
/api/...verfügbar ist - Ein Skill-Server unter
/skillfür strukturierte Agentenabfrage
Der Server bietet dabei Endpunkte wie list-ships, get-ship oder create-voyage, die direkt mit den darunterliegenden APIs verknüpft sind.
Infrastruktur im Hintergrund: Cloudflare Containers und Workers
Hinter der Bereitstellung steht eine moderne Cloudflare-Architektur. Der Naftiko Framework-Container (ghcr.io/naftiko/framework:latest) läuft in einer Cloudflare Container-Umgebung, die von einem Worker gesteuert wird. Ein Durable Object fungiert dabei als Broker zwischen den Anfragen und dem Container.
Die Bereitstellung nutzt lediglich fünf Dateien aus dem Repository:
- Die Fähigkeits-Definition in YAML
- Drei Importdateien für gemeinsame Abhängigkeiten
- Eine Dockerfile für die Containerisierung
- Die Wrangler-Konfiguration für Cloudflare
- Ein Worker-Skript, das Anfragen an die richtigen Ports weiterleitet (
/mcp→ 3001,/skill→ 3003, REST → 3002)
Interessant: Diese Architektur ist identisch mit der, die bereits für das Produktivsystem manage-companies im Einsatz ist. Die Shipyard dient somit nicht nur als Demo, sondern als Blaupause für echte Deployments.
Ein-Klick zum Live-Server: So startet die Bereitstellung
Der Prozess ist denkbar einfach:
- Klicken Sie auf den Bereitstellungsbutton in der Shipyard-Anleitung.
- Cloudflare authentifiziert Sie, forked das Repository und provisioniert automatisch einen Worker sowie einen Container.
- Der Docker-Build wird gestartet, und nach etwa zwei bis drei Minuten erhalten Sie eine
*.workers.dev-Subdomain.
Nach Abschluss steht Ihnen folgende Infrastruktur zur Verfügung:
- Ein Landing-Page unter `
- Der MCP-Server unter `
- Der REST-Adapter unter `
- Der Skill-Server unter `
Der MCP-Endpunkt ist sofort einsatzbereit und kann direkt in KI-Tools eingebunden werden.
MCP-Server in KI-Anwendungen integrieren: Schritt-für-Schritt-Anleitung
Um den Server mit Ihren KI-Tools zu verknüpfen, ersetzen Sie einfach die Platzhalter in den folgenden Konfigurationen mit Ihrer Worker-URL. Der Standard-Bearer-Token lautet sk-mcp-YYYYYYYYYYYY, sofern Sie ihn nicht angepasst haben.
Integration in Claude Desktop
Bearbeiten Sie die Konfigurationsdatei unter:
- Mac:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
Fügen Sie folgende Serverkonfiguration hinzu:
{
"mcpServers": {
"naftiko-shipyard": {
"type": "streamable-http",
"url": "
"headers": {
"Authorization": "Bearer sk-mcp-YYYYYYYYYYYY"
}
}
}
}Starten Sie Claude Desktop neu, um die Änderungen zu übernehmen. Die Tools sollten nun im Tool-Picker erscheinen.
Integration in Claude Code
Führen Sie folgenden Befehl aus, um den Server hinzuzufügen:
claude mcp add --transport http naftiko-shipyard \
--header "Authorization: Bearer sk-mcp-YYYYYYYYYYYY"Überprüfen Sie die Integration mit:
claude mcp listIntegration in ChatGPT (Pro/Enterprise)
Gehen Sie in ChatGPT zu den Einstellungen und fügen Sie einen benutzerdefinierten Connector hinzu:
- Server-URL: `
- Authentifizierung: Benutzerdefinierter Header mit Name
Authorizationund WertBearer sk-mcp-YYYYYYYYYYYY
Integration in Gemini CLI
Bearbeiten Sie die Einstellungsdatei unter ~/.gemini/settings.json:
{
"mcpServers": {
"naftiko-shipyard": {
"httpUrl": "
"headers": {
"Authorization": "Bearer sk-mcp-YYYYYYYYYYYY"
}
}
}
}Starten Sie gemini neu und überprüfen Sie die Integration mit /mcp list.
Warum diese Architektur für die Praxis relevant ist
Die Shipyard-Demo zeigt nicht nur, wie schnell ein MCP-Server bereitgestellt werden kann – sie demonstriert auch, dass die verwendete Architektur exakt der entspricht, die bereits in Produktion eingesetzt wird. Der entscheidende Vorteil liegt in der Flexibilität:
- Sie können das YAML-Dokument in Ihrem Repository anpassen und den Server mit einem erneuten Deploy sofort aktualisieren.
- Die gleiche Infrastruktur lässt sich für verschiedene MCP-Server nutzen, ohne Änderungen an der Grundarchitektur vornehmen zu müssen.
- Die Integration in gängige KI-Tools ist nahtlos möglich, was die Entwicklung und das Testen von KI-Anwendungen deutlich beschleunigt.
Mit dieser Lösung erhalten Sie einen voll funktionsfähigen, öffentlich zugänglichen MCP-Endpunkt, den Sie eigenständig kontrollieren und in Ihre Workflows einbinden können – eine echte Game-Changer für Entwickler, die mit KI-gestützten Anwendungen arbeiten.
KI-Zusammenfassung
Naftiko Shipyard ile MCP sunucularınızı sadece iki dakikada Cloudflare Containers üzerinden dağıtın. AI araçlarınıza sorunsuz entegrasyon sağlayan adım adım rehber.