Modelle
OpenAI, Anthropic, Open Source
Systeme
RAG, Agenten, Chatbots
Standard
DSGVO-konform
Was wir bauen
Intelligente Chatbots & Assistenten
Chatbots, die eure Unternehmensdaten kennen und kontextbezogen antworten — nicht generisch, sondern auf euer Business zugeschnitten.
RAG-Systeme
Retrieval-Augmented Generation: Eure Dokumente werden durchsuchbar und beantworten Fragen — mit Quellenangabe und Kontextverständnis.
AI-Agenten
Autonome Agenten, die komplexe Aufgaben mehrstufig lösen: Recherche, Analyse, Zusammenfassung, Entscheidungsvorbereitung.
Prozess-Automatisierung
Wiederkehrende Aufgaben automatisieren: E-Mail-Klassifizierung, Dokumentenverarbeitung, Angebotserstellung, Reporting.
Unsere AI-Architektur
| Komponente | Technologie | Einsatz |
|---|---|---|
| LLM-Provider | OpenAI GPT-4o, Claude 3.5, Llama 3 | Je nach Anforderung, Kosten, Datenschutz |
| Embeddings | OpenAI, Cohere, Open Source | Dokumente in Vektoren umwandeln |
| Vektor-DB | pgvector (PostgreSQL) | Semantische Suche, kein Extra-Service |
| Orchestrierung | LangChain / Custom | Agenten, Chains, Tool-Calling |
| Backend | Django + Celery | API, Async-Tasks, Streaming |
| Frontend | React + TypeScript | Chat-UI, Dashboards, Streaming |
| Deployment | Docker, AWS/Hetzner | DSGVO-konform, skalierbar |
LLM-Modelle im Vergleich
DSGVO & Datenschutz
Wir achten auf Datenverarbeitung in der EU, keine Verwendung eurer Daten für Modell-Training, und verschlüsselte Übertragung. Bei Bedarf: Self-Hosted Open-Source-Modelle.
Vendor-unabhängig
Wir empfehlen das passende Modell — nicht das teuerste. Oft ist GPT-4o mini für 95% der Aufgaben ausreichend. Wir testen und vergleichen für euren Use Case.
AI-Anwendung entwickeln?
Von der Idee zum produktionsreifen System — wir beraten euch kostenlos.
Erstgespräch buchen/ Hintergrund & Wissen
RAG vs. Fine-Tuning: Wann braucht man was?
Die häufigste Frage, die wir von Unternehmen hören: Sollen wir ein eigenes Modell trainieren? In 90% der Fälle lautet die Antwort: Nein. Retrieval-Augmented Generation (RAG) ist fast immer der bessere Ansatz. RAG kombiniert ein vortrainiertes Sprachmodell mit euren eigenen Daten — ohne das Modell selbst zu verändern.
Der Vorteil: RAG ist schnell implementierbar (Wochen statt Monate), kostengünstig (kein GPU-Training nötig), und die Daten bleiben aktuell, weil sie live aus eurer Datenbank kommen. Fine-Tuning lohnt sich nur, wenn ihr ein sehr spezifisches Sprachverhalten braucht — etwa einen Chatbot, der in einem bestimmten Fachjargon kommunizieren muss.
AI-Agenten: Die nächste Stufe nach Chatbots
Chatbots beantworten Fragen. Agenten erledigen Aufgaben. Der Unterschied ist fundamental: Ein Agent kann eigenständig Schritte planen, Tools aufrufen (APIs, Datenbanken, Dateisysteme), Zwischenergebnisse auswerten und auf dieser Basis weiterarbeiten. Das ermöglicht Anwendungen, die weit über einfache Frage-Antwort-Interaktion hinausgehen.
Beispiele aus der Praxis: Ein Agent, der eingehende E-Mails analysiert, die relevanten Kundendaten aus dem CRM holt, einen Antwortvorschlag generiert und diesen zur Freigabe vorlegt. Oder ein Agent, der Quartalsberichte aus verschiedenen Quellen zusammenstellt, Trends identifiziert und eine Management-Zusammenfassung erstellt.
Wir bauen Agenten mit Django als Backend — entweder mit LangChain für standardisierte Patterns oder als Custom-Lösung, wenn mehr Kontrolle und Zuverlässigkeit gefragt sind. In beiden Fällen setzen wir auf robustes Error-Handling und menschliche Freigabe-Schleifen für kritische Aktionen.
Kosten und Wirtschaftlichkeit von AI-Anwendungen
KI-Anwendungen haben ein ungewöhnliches Kostenprofil: Die Entwicklungskosten sind oft geringer als erwartet (dank APIs und Frameworks), aber die laufenden Kosten für API-Calls können sich summieren. Wir helfen euch, die Gesamtkosten realistisch einzuschätzen und zu optimieren.
Typische Stellhebel: Model-Routing (GPT-4o mini für einfache Aufgaben, GPT-4o nur wenn nötig), Caching von häufigen Anfragen, Batch-Processing statt Echtzeit wo möglich, und intelligentes Chunking bei RAG-Systemen. In den meisten Fällen können wir die API-Kosten um 60–80% senken, ohne spürbare Qualitätseinbußen.
Von der Idee zum produktionsreifen AI-System
Der Weg von einem Proof of Concept zur produktionsreifen AI-Anwendung ist länger als viele erwarten. Ein PoC mit OpenAI-API und ein paar Prompts ist in Tagen gebaut. Aber ein System, das zuverlässig funktioniert, Edge Cases handhabt, skaliert und DSGVO-konform ist, braucht sorgfältige Architektur.
Unsere Erfahrung aus dutzenden AI-Projekten: Plant für Evaluation und Testing doppelt so viel Zeit ein wie für die eigentliche Entwicklung. Die größte Herausforderung ist nicht, KI zum Laufen zu bringen — sondern sicherzustellen, dass sie zuverlässig die richtigen Ergebnisse liefert, auch bei unerwarteten Eingaben.