Ziel der Rolle
Wir gehen über reine Prototypen hinaus und bauen produktionsreife KI-Systeme, die echten Mehrwert liefern. Unsere Lösungen automatisieren komplexe Workflows, unterstützen fundierte Entscheidungen und verändern nachhaltig, wie Organisationen arbeiten.
Wir suchen einen AI Engineer (m/f/d), der sich an der Schnittstelle von verteilten Systemen, KI-Architektur und realer Automatisierung bewegt – und dort nicht nur Konzepte entwirft, sondern sie auch zuverlässig in die Produktion bringt. Du fühlst dich wohl damit, Systeme zu bauen, die unter echten Bedingungen laufen: skalierbar, robust und eng integriert in bestehende Prozesse.
- Entwicklung und Implementierung von KI-gestützten Features wie intelligenten Agenten, Wissensassistenten und Automatisierungstools
- Aufbau und Weiterentwicklung von Agentenfähigkeiten (z. B. Tool‑Nutzung, Memory, Kontextmanagement und Task‑Ausführung)
- Entwicklung von Retrieval‑Augmented‑Generation-(RAG)-Pipelines sowie Integration von Wissensabruf über Vektordatenbanken
- Integration von LLM‑Anbietern (z. B. OpenAI, Azure OpenAI, Anthropic sowie Open‑Source‑Modelle) in Produktfeatures
- Aufbau von Datenpipelines zur Anbindung von KI‑Systemen an interne Wissensquellen, externe APIs und Enterprise‑Systeme
- Implementierung von Streaming‑Antworten, Hintergrundverarbeitung und Mechanismen zur Task‑Ausführung in KI‑Workflows
- Evaluation und Benchmarking von KI‑Tools, Modellen und Prompting‑Strategien zur Verbesserung von Performance und Zuverlässigkeit
- Monitoring und Optimierung des KI‑Verhaltens durch Logging, Testing, Evaluation und iterative Verbesserungen
- Optimierung von KI‑Features hinsichtlich Latenz, Kosten und praktischer Nutzbarkeit
- Mitwirkung an der kontinuierlichen Weiterentwicklung von KI‑Funktionalitäten und der Erprobung neuer Technologien
- Mehrjährige Backend-Erfahrung in Python (mindestens 5 Jahre)
- Erfahrung im Design skalierbarer, verteilter Systeme und asynchroner Architekturen
- Praktische Erfahrung mit KI‑Agenten‑Frameworks (z. B. LangChain, LlamaIndex oder vergleichbar)
- Tiefes Verständnis von RAG‑Architekturen, Embeddings, Vektorsuche und Wissensabruf
- Erfahrung mit Voice AI, Streaming‑Inference oder Echtzeitsystemen
- Erfahrung in der Integration von LLM‑APIs sowie im Aufbau zuverlässiger KI‑Workflows
- Vertrautheit mit PostgreSQL, Caching‑Layern sowie Queue‑Systemen (z. B. Celery, Redis, RabbitMQ)
- Ausgeprägtes Engineering‑Mindset: Testing, Monitoring, Logging, Security und Performance‑Optimierung
- Fähigkeit, experimentelle KI‑Ansätze in stabile, produktionsreife Features zu überführen
- Erfahrung mit graphbasierten Reasoning‑Systemen und Knowledge Graphs
- Erfahrung mit Frameworks zur Modellevaluation sowie Strategien zur Prompt‑Optimierung
- Erfahrung im Bereich Context Engineering
- Erfahrung in der Kostenoptimierung beim Einsatz von LLMs im großen Maßstab
- Erfahrung mit Docker, Cloud-Plattformen (Azure, GCP, AWS) und CI/CD‑Pipelines
- Impact: Aufbau intelligenter Systeme, die den Einsatz von KI in Unternehmen neu definieren
- Innovation: Arbeit mit modernsten Frameworks und Modell‑Ökosystemen
- Kultur: Kollaboratives, kreatives und eigenverantwortliches Team
- Flexibilität: Remote‑first und flexible Arbeitszeiten
- Wachstum: Zugang zu KI‑Ressourcen, Tools und Weiterbildungen
- Beteiligung: Virtual Stock Option Plan (VSOP)