Unser erster MCP Server: Learnings und Herausforderungen

Warum überhaupt ein MCP Server?

Als wir hörten, dass OpenAI das Model Context Protocol (MCP) integriert, war klar: Das müssen wir ausprobieren. Die Motivation war simpel: Machbarkeit, Neugierde und der Glaube daran, dass man als Firma sein eigenes Wissen ins KI-Universum bringen können sollte. Schnittstellen sind toll – und MCP verspricht genau das: Eine standardisierte Art, KI-Systeme mit eigenen Daten und Tools zu verbinden.

Die Infrastruktur: AWS + Terraform

Wir wollten von Anfang an einen Remote MCP Server bauen. Warum? Weil wir nicht daran glauben, dass Nutzer sich lokal irgendwelche Server runterladen und konfigurieren wollen. Der Einfachheit halber haben wir erstmal auf Authentifizierung verzichtet – das kommt später.

Unser Tech-Stack

Hier ist, was wir gebaut haben:

MCP Server Infrastruktur

Die Komponenten:

  • Terraform Stack: Infrastructure as Code für reproduzierbare Deployments
  • AWS ECS + ECR: Container-Orchestrierung und Registry
  • Application Load Balancer: Nutzen einen bestehenden ALB (kosteneffizienter!)
  • CloudFront Distribution: CDN für schnellere Zugriffe
  • Express Server: Im Container läuft ein simpler Express.js Server

Deployment-Pipeline:

  • Terraform deployed die Infrastruktur
  • Docker Build bei jedem Code-Commit
  • Automatisches Deployment über ECR → ECS

Die Entwicklung: Überraschend einfach

Das Protokoll haben wir gegoogelt und schnell verstanden. Im Wesentlichen geht es um Tool Calls – und warum auch immer muss man für OpenAI ein paar Spezial-Endpoints wie fetch und search bereitstellen. Finden wir nicht so geil, aber okay – die geben halt erstmal Fake-Data zurück.

Der Code

Ein einfacher Express Server, der MCP-Requests verarbeitet:

const express = require('express');
const app = express();

// MCP Tool Definitions
app.post('/tools/list', (req, res) => {
  res.json({
    tools: [
      { name: 'search', description: 'Suche in unseren Daten' },
      { name: 'fetch', description: 'Hole spezifische Informationen' }
    ]
  });
});

// Tool Execution
app.post('/tools/call', (req, res) => {
  const { name, arguments: args } = req.body;
  // Deine Business-Logik hier
});

Was uns umgehauen hat

Das Ding funktionierte von der ersten Sekunde an – mit ALLEM!

Wir haben unseren MCP Server erfolgreich getestet mit:

  • Claude (Anthropic)
  • OpenAI (im Playground – im Business Account gibt’s leider keinen Dev Mode)
  • n8n (Workflow Automation)
  • Vapi (Voice AI)
  • Windsurf (Code Editor)
  • Gemini CLI (Google)

Die Interoperabilität ist beeindruckend. Ein Server, alle großen KI-Plattformen können damit reden.

Die Kosten: Überraschend günstig

Wir haben natürlich ein AWS Cost Tracking Tag eingebaut und sehen für unseren selten genutzten MCP Server erstmal Kosten von 55 Cent am Tag. Für ein Spaßprojekt total okay – und für Production-Workloads hochskalierbar.

Cost Breakdown (ca.):

  • ECS Task: ~0,30€/Tag
  • ALB (anteilig): ~0,15€/Tag
  • CloudFront: ~0,05€/Tag
  • ECR Storage: ~0,05€/Tag

Open Source?

Sollen wir einen Beispiel-Server auf GitHub stellen? Wir überlegen, unseren Basis-Setup als Template zu veröffentlichen, damit andere schneller starten können. Was meint ihr?

Fortsetzung folgt…

Im nächsten Artikel beschreiben wir Logging und Debugging – denn in Production braucht man mehr als nur “es funktioniert”. Stay tuned!


Interessiert an MCP-Integration für Ihr Unternehmen? Kontaktieren Sie uns!