Die Lösung wurde als conversational KI-Assistent entwickelt, der natürliche Sprachabfragen für das Management von Timesheets und Projekt-Tracking verarbeitet. Im Kern nutzt er Natural Language Understanding (NLU), führt Vorgänge über spezialisierte Tools aus und liefert intelligente Antworten basierend auf Rollen und Berechtigungen.
Das System arbeitet über eine präzise aufeinander abgestimmte Pipeline, um Echtzeit-Antworten mit hoher Genauigkeit und geringer Latenz zu gewährleisten:
Verarbeitung von Nutzerabfragen
Die Interaktion erfolgt über die Next.js Web-Schnittstelle, die Chat-Kommunikation läuft in Echtzeit über Server-Sent Events (SSE).
Natural Language Understanding
Nutzereingaben werden von einem Large Language Model (LLM) verarbeitet, das die Absicht erkennt und das passende Tool für die Ausführung bestimmt.
Tool-Ausführung & Datenabfrage
Der MCP Host Service führt spezialisierte Tools gegen die Tuix Timesheets REST API aus.
Antwortgenerierung & Streaming
Das LLM erstellt die Ausgabe basierend auf den Tool-Ergebnissen und streamt die Antwort in Echtzeit zurück.
Verwaltung der Gesprächshistorie
Alle Interaktionen werden in Redis gespeichert, um Kontext über mehrere Unterhaltungen und Sitzungen zu erhalten.
Dieser modulare Ablauf ermöglicht niedrige Latenz, hohe Skalierbarkeit und eine reibungslose, rollen-basierte User-Experience, selbst bei komplexen Abfragen.
Funktions-Highlights
-
Mehrsprachige Gespräche: Unterstützt mehrere Sprachen und bewahrt Kontext über die gesamte Unterhaltung.
-
KI-basierte Absichtserkennung: Erkennt deine Anfrage und führt Timesheet-Vorgänge mit hoher Präzision aus.
-
Automatisierte Abläufe: Wandelt Chat-Eingaben in Systemaktionen um — für Zeiterfassung, Projekt-Tracking und Analyse.
-
Rollenbasierte Intelligenz: Passt Antworten deinem Zugriff an — Mitarbeitende sehen persönliche Daten, Admins umfassende Systemfunktionen.
Herausforderungen & Erkenntnisse
-
Tool-Synchronisation: Die Aktualität der MCP-Server-Tools parallel zur Swagger-Dokumentation zu halten, war entscheidend, um API-Vorgänge korrekt auszuführen.
-
Konversationskontext: Neben dem Verständnis der Anfrage musste der Assistent Kontext über mehrere Interaktionen hinweg erhalten, ohne Rollen- oder Sicherheitsregeln zu verletzen.
-
Die richtige Balance: Automatisierung schafft Effizienz, aber Datensicherheit und rollenbasiertes Access-Control waren essenziell, um Vertrauen und Zuverlässigkeit zu gewährleisten.
Technologiestack
Backend-Services (Go & TypeScript)
-
MCP-Server: Auto-generiert aus Swagger-Dokumentation, um synchron zu API-Änderungen zu bleiben.
-
MCP Host Service: Node.js/TypeScript-Service für LLM-Interaktion und Tool-Ausführung.
-
RAG-Service: Go-Service mit Vektordatenbank zur Wissensabfrage.
-
Redis: Speicher für Gesprächsverlauf und Session-Management.
KI-Infrastruktur
-
Multi-Provider LLM-Support: Google AI (Gemini), OpenAI (ChatGPT), Anthropic (Claude).
-
Echtzeit-Streaming: Server-Sent Events für sofortige Antwortausgabe.
-
Tool-Integration: 50+ spezialisierte Tools für Timesheet-Vorgänge.
Frontend (Next.js)
-
Modernes React-Interface: TypeScript-basiertes Chat-UI mit Echtzeit-Updates.
-
Auth0-Integration: Sicheres Login und Rollenverwaltung.
-
Responsives Design: Optimiert für Desktop und mobile Geräte.
Möchtest du dein Anwendungsmanagement mit KI-gesteuerter Automatisierung verbessern? Lass uns besprechen, wie ein maßgeschneiderter KI-Assistent auf die Bedürfnisse deines Unternehmens zugeschnitten werden kann.


