Agentic AI
KI-Systeme, die eigenständig planen, handeln und auf unvorhergesehene Situationen reagieren — innerhalb definierter Leitplanken.
Agentic AI bezeichnet KI-Architekturen, in denen ein oder mehrere KI-Agenten Aufgaben autonom übernehmen: Sie zerlegen ein Problem in Teilschritte, wählen Tools aus, führen Aktionen aus und prüfen das Ergebnis. Im Gegensatz zu klassischen Chatbots oder regelbasierten Workflows können Agentic-AI-Systeme eigene Pläne anpassen, wenn sich die Situation ändert.
Mittelstands-Beispiel
Ein Mittelstands-Vertrieb nutzt einen KI-Agenten, der täglich Ausschreibungs-Portale durchsucht, passende Treffer findet, im CRM einträgt und einen Statusbericht erzeugt — ohne menschliche Steuerung jedes Schrittes.
RAG (Retrieval-Augmented Generation)
KI-Architektur, die ein Sprachmodell mit einer Wissensdatenbank kombiniert — die KI antwortet auf Basis der eigenen Daten, nicht aus dem Trainings-Modell.
RAG steht für Retrieval-Augmented Generation. Ein RAG-System indexiert eigene Dokumente (Verträge, Wikis, Reports), bei einer Anfrage werden die relevantesten Texte gesucht und dem Sprachmodell als Kontext mitgegeben. Das LLM antwortet dann auf Basis der eigenen Daten — und kann Quellen zitieren. Standard-Architektur für firmeneigene Wissens-Assistenten.
Mittelstands-Beispiel
Ein Maschinenbauer indexiert 5.000 Konstruktions-Zeichnungen, Prüfprotokolle und Service-Reports in einem Vektor-Store. Konstrukteure stellen Fragen wie ‚Welche Werkstoffe haben wir 2024 für Spindeln verwendet?‘ und bekommen Antworten mit Quellen-Verweis.
Verwandt:Vector DatabaseAgentic AIEmbedding LLMOps
Entwicklungs- und Betriebs-Praktiken für produktive Sprachmodell-Systeme — analog zu DevOps oder MLOps, aber für LLM-Anwendungen.
LLMOps umfasst Versionierung von Prompts, Monitoring von Antwortqualität, Kostenkontrolle pro Token, Sicherheits-Audits, Fallback-Strategien bei Modell-Ausfällen und kontinuierliche Verbesserung der Wissens-Basis. Ohne LLMOps-Praktiken werden produktive LLM-Systeme schnell teuer, instabil oder peinlich.
Mittelstands-Beispiel
Ein Mittelstands-Reporting läuft auf GPT-4 + Claude. LLMOps stellt sicher, dass jede Prompt-Änderung versioniert ist, Antworten in einem Audit-Log landen, monatliche Kosten unter 500 EUR bleiben und bei OpenAI-Ausfall automatisch auf Anthropic umgeschaltet wird.
Verwandt:MLOpsPrompt EngineeringRAG Prompt Engineering
Die Kunst, Eingaben für Sprachmodelle so zu formulieren, dass das Modell zuverlässig die gewünschte Antwort liefert.
Prompt Engineering kombiniert klare Aufgabenbeschreibung, Kontext-Bereitstellung, Beispiele (Few-Shot), Ausgabe-Format-Vorgaben und Iteration. Gute Prompts reduzieren Halluzinationen, verbessern Konsistenz und ermöglichen automatisierte Pipelines. Im Mittelstand gehört Prompt Engineering zur KI-Kompetenz-Pflicht des EU AI Act.
Mittelstands-Beispiel
Statt ‚Schreibe einen Statusbericht‘ liefert ein Prompt-Engineer eine Vorlage mit Sektions-Headern, Beispiel-Sätzen, Token-Limit und Validierungs-Regeln. Das Ergebnis ist dreimal konsistenter und 30% kürzer.
Verwandt:LLMOpsFew-Shot Learning Vector Database
Datenbank, die Texte als hochdimensionale Vektoren speichert und ähnliche Texte schnell findet — Grundlage für RAG-Systeme.
Eine Vector Database (Pinecone, Weaviate, Qdrant, pgvector) speichert Texte zusammen mit ihrer mathematischen Repräsentation als Embedding-Vektor. Bei einer Anfrage wird der Anfrage-Vektor berechnet und die nächstgelegenen Texte werden ausgegeben. Vector DBs sind das Rückgrat moderner KI-Anwendungen.
Mittelstands-Beispiel
Ein Hotel speichert alle Gäste-FAQs der letzten 5 Jahre als Vektor-DB. Bei einer neuen Anfrage findet das System in Millisekunden ähnliche frühere Anfragen und schlägt eine passende Antwort vor.
Embedding
Mathematische Repräsentation eines Textes oder Bildes als Vektor mit hunderten oder tausenden Dimensionen.
Embeddings werden von neuronalen Netzen erzeugt: Ähnliche Konzepte landen im Vektorraum nahe beieinander. Embeddings sind die Grundlage für semantische Suche, Clustering, Klassifikation und RAG. Standard-Embedding-Modelle 2026: OpenAI text-embedding-3-large, Voyage AI, Cohere Embed v4, BGE-M3.
Mittelstands-Beispiel
Ein Vertrieb berechnet Embeddings für alle Kunden-E-Mails. Per Cluster-Analyse werden ähnliche Anfrage-Typen gruppiert, eine Anfragen-Statistik fällt automatisch ab.
Fine-Tuning
Spezialisierung eines vortrainierten Sprachmodells auf eine konkrete Aufgabe oder einen Tonfall durch zusätzliches Training.
Fine-Tuning passt ein Basis-Modell mit firmeneigenen Beispielen an — z. B. um Branchen-Jargon zu beherrschen, einen Markenton einzuhalten oder eine domänenspezifische Aufgabe zu meistern. Im Mittelstand ist Fine-Tuning oft NICHT der erste Schritt: Prompt Engineering + RAG erreichen 80% des Effekts mit 10% des Aufwands.
Mittelstands-Beispiel
Ein Versicherer fine-tunt ein Modell auf 10.000 Schadenfall-Bescheide, damit das System neue Bescheide im richtigen formellen Ton erzeugt. Ohne Fine-Tuning wären die Texte stilistisch inkonsistent.
MLOps
Engineering-Praxis für den produktiven Betrieb von Machine-Learning-Modellen — Daten-Pipelines, Modell-Training, Monitoring, Skalierung.
MLOps standardisiert das Life-Cycle-Management von ML-Modellen: Experiment-Tracking, Modell-Versionierung, Daten-Qualitäts-Pipelines, Deployment, Drift-Monitoring, Re-Training. MLOps ist Voraussetzung für KI-Reporting, Predictive Maintenance, Forecasting im Mittelstand.
Mittelstands-Beispiel
Ein Maschinenbauer trainiert monatlich ein MTBF-Forecast-Modell aus aktuellen Wartungs-Daten. MLOps-Pipeline (z. B. mit MLflow + GitHub Actions) automatisiert Training, Validierung, Deployment.
Token
Kleinste Verarbeitungs-Einheit eines Sprachmodells — etwa 0,75 Wörter im Deutschen. LLM-Kosten werden pro Token abgerechnet.
Tokens sind kein perfektes Wort-Maß: ‚Geschäftsführer‘ wird in mehrere Tokens zerlegt, ‚the‘ ist ein einzelner Token. Standard-Annahme: 1.000 Tokens ≈ 750 deutsche Wörter. Kosten 2026 (GPT-4o): ca. 0,005 USD pro 1.000 Input-Tokens, 0,015 USD pro 1.000 Output-Tokens.
Mittelstands-Beispiel
Ein KI-Reporting verarbeitet täglich ca. 50.000 Input-Tokens (alle KPI-Daten) und erzeugt 5.000 Output-Tokens (Klartext-Bericht). Monatliche Kosten ca. 8-15 EUR — vernachlässigbar im Vergleich zur eingesparten Personentage.
Verwandt:Function CallingPrompt Engineering Function Calling
Fähigkeit eines Sprachmodells, strukturierte Funktions-Aufrufe (mit Parametern) zu erzeugen — Grundlage für Agentic AI.
Function Calling erlaubt einem LLM, statt Freitext einen strukturierten JSON-Output mit Funktion und Parametern zu erzeugen. Anwendungen: Tool-Use (LLM ruft Datenbank-Query auf), Strukturierte Extraktion (LLM zieht Daten aus Text), Workflow-Steuerung (LLM entscheidet, welcher Schritt als nächstes folgt).
Mittelstands-Beispiel
Ein KI-Agent nimmt eine Kunden-E-Mail entgegen, ruft via Function Calling die ‚get_customer_history‘-Funktion mit der Kunden-ID auf, kombiniert das Ergebnis und schreibt eine personalisierte Antwort.
Verwandt:Agentic AITool-Use KI-Readiness
Reifegrad eines Unternehmens für KI-Einführung — Kombination aus Datenqualität, Cloud-Reife, Skills, Use-Case-Pipeline und Governance.
KI-Readiness misst nicht ‚Haben wir KI-Tools?‘, sondern ‚Können wir KI-Projekte erfolgreich umsetzen?‘. Modular Ops bewertet KI-Readiness in 12 Punkten: Datenqualität, Datenstruktur, Cloud-Reife, IT-Architektur, Sicherheits-Grundlagen, Daten-Governance, Use-Case-Pipeline, Stakeholder-Alignment, Skills im Team, Change-Management, EU-AI-Act-Risiko-Klassifikation, Tooling-Reife.
Mittelstands-Beispiel
Ein 250-MA-Industrie-Unternehmen erhält im KI-Readiness-Check Reifegrad 2,3 von 5. Quick Wins: Reporting-Automatisierung (Datenqualität reicht), Engineering-Knowledge-Suche. Schlechte Use-Cases zum Start: Predictive Maintenance (Datenqualität nur 50%).
Verwandt:EU AI ActAI-Sprint EU AI Act
Europäische KI-Verordnung (Verordnung 2024/1689), die KI-Systeme nach Risiko klassifiziert und Pflichten für Anbieter und Anwender definiert.
Der EU AI Act trat am 1. August 2024 in Kraft. Risiko-Klassen: minimal, begrenzt, hoch, inakzeptabel. Schlüssel-Pflichten: KI-Kompetenz für Mitarbeiter (Artikel 4, ab 02/2025), Transparenzpflicht für KI-Interaktionen (Artikel 50), Konformitätsbewertung für Hochrisiko-Systeme. Verstöße: bis zu 7% des Jahresumsatzes oder 35 Mio. EUR.
Mittelstands-Beispiel
Ein Maschinenbauer prüft jeden KI-Use-Case auf Risiko-Klasse: Reporting (risiko-arm), MTBF-Forecast (risiko-arm), Personal-Schichtplanung (Hochrisiko, Anhang III), KI in Sicherheitskreis-Funktion (Hochrisiko, Maschinen-Verordnung).
OEE
Overall Equipment Effectiveness — Schlüssel-KPI in der Fertigung, Produkt aus Verfügbarkeit × Leistung × Qualität.
OEE = (Verfügbarkeit / 100) × (Leistung / 100) × (Qualität / 100) × 100%. Werte über 85% gelten als ‚World Class‘, viele Mittelständler liegen zwischen 50-70%. KI-Reporting macht OEE-Trends täglich sichtbar und identifiziert Drift in Maschinenparametern, bevor sie zu Ausschuss werden.
Mittelstands-Beispiel
Ein Sondermaschinenbauer hat OEE 62%. KI-Reporting identifiziert: 18% Verfügbarkeitsverlust durch geplante Wartungen, 8% durch ungeplante Stillstände, 12% Leistungsverlust durch sub-optimale Spindel-Drehzahlen.
MTBF
Mean Time Between Failures — durchschnittliche Laufzeit zwischen ungeplanten Anlagen-Ausfällen.
MTBF wird in Stunden oder Tagen gemessen. Höhere MTBF = zuverlässigere Anlage. Predictive Maintenance mit ML-Modellen prognostiziert MTBF und schlägt Wartungs-Termine 4-12 Wochen voraus vor. Voraussetzung: 12-18 Monate saubere Wartungs-Historie.
Mittelstands-Beispiel
Ein Maschinenbauer hat MTBF 312 Stunden. ML-Modell prognostiziert auf Basis von Schwingungs-Sensoren, dass Anlage 04 in 45 Tagen mit 78%-Wahrscheinlichkeit ausfällt. Wartung wird vorgezogen, 2-Tage-Stillstand vermieden.
Kaufanlass
Externe Marktsignale, die auf eine aktive Investitionsentscheidung bei einem potenziellen Kunden hindeuten — Grundlage für proaktiven B2B-Vertrieb.
Klassische Kaufanlässe: Ausschreibungen, Pressemeldungen über Investitionen, neue Stellenanzeigen mit relevantem Tech-Stack, Leitungswechsel, Bauprojekt-Ankündigungen, Förderbescheide. KI-gestützte Kaufanlass-Radare aggregieren diese Signale automatisch und liefern strukturierte Briefings an den Vertrieb.
Mittelstands-Beispiel
Ein B2B-Maschinenbauer scannt täglich öffentliche Ausschreibungen, Stellenanzeigen und Pressemeldungen. KI markiert ‚Kunde X plant Erweiterung um 2 Linien laut Geschäftsbericht‘ — Vertrieb meldet sich gezielt, eine Woche vor Wettbewerb.
Verwandt:Risk MiningKaufanlass-Radar