Wir verwenden Cookies 🍪

    Wir nutzen Cookies, um Ihre Erfahrung auf unserer Website zu verbessern. Sie können selbst entscheiden, welche Cookies Sie zulassen möchten. Mehr erfahren

    Glossar

    KI-Glossar für den Mittelstand

    15 Schlüsselbegriffe rund um KI, EU AI Act, Reporting und B2B-Vertrieb — mit Definitionen und konkreten Mittelstands-Beispielen statt Forschungs-Jargon.

    30-Minuten-Erstgespräch buchen

    Agentic AI

    KI-Systeme, die eigenständig planen, handeln und auf unvorhergesehene Situationen reagieren — innerhalb definierter Leitplanken.

    Agentic AI bezeichnet KI-Architekturen, in denen ein oder mehrere KI-Agenten Aufgaben autonom übernehmen: Sie zerlegen ein Problem in Teilschritte, wählen Tools aus, führen Aktionen aus und prüfen das Ergebnis. Im Gegensatz zu klassischen Chatbots oder regelbasierten Workflows können Agentic-AI-Systeme eigene Pläne anpassen, wenn sich die Situation ändert.

    Mittelstands-Beispiel

    Ein Mittelstands-Vertrieb nutzt einen KI-Agenten, der täglich Ausschreibungs-Portale durchsucht, passende Treffer findet, im CRM einträgt und einen Statusbericht erzeugt — ohne menschliche Steuerung jedes Schrittes.

    RAG (Retrieval-Augmented Generation)

    KI-Architektur, die ein Sprachmodell mit einer Wissensdatenbank kombiniert — die KI antwortet auf Basis der eigenen Daten, nicht aus dem Trainings-Modell.

    RAG steht für Retrieval-Augmented Generation. Ein RAG-System indexiert eigene Dokumente (Verträge, Wikis, Reports), bei einer Anfrage werden die relevantesten Texte gesucht und dem Sprachmodell als Kontext mitgegeben. Das LLM antwortet dann auf Basis der eigenen Daten — und kann Quellen zitieren. Standard-Architektur für firmeneigene Wissens-Assistenten.

    Mittelstands-Beispiel

    Ein Maschinenbauer indexiert 5.000 Konstruktions-Zeichnungen, Prüfprotokolle und Service-Reports in einem Vektor-Store. Konstrukteure stellen Fragen wie ‚Welche Werkstoffe haben wir 2024 für Spindeln verwendet?‘ und bekommen Antworten mit Quellen-Verweis.

    Verwandt:Vector DatabaseAgentic AIEmbedding

    LLMOps

    Entwicklungs- und Betriebs-Praktiken für produktive Sprachmodell-Systeme — analog zu DevOps oder MLOps, aber für LLM-Anwendungen.

    LLMOps umfasst Versionierung von Prompts, Monitoring von Antwortqualität, Kostenkontrolle pro Token, Sicherheits-Audits, Fallback-Strategien bei Modell-Ausfällen und kontinuierliche Verbesserung der Wissens-Basis. Ohne LLMOps-Praktiken werden produktive LLM-Systeme schnell teuer, instabil oder peinlich.

    Mittelstands-Beispiel

    Ein Mittelstands-Reporting läuft auf GPT-4 + Claude. LLMOps stellt sicher, dass jede Prompt-Änderung versioniert ist, Antworten in einem Audit-Log landen, monatliche Kosten unter 500 EUR bleiben und bei OpenAI-Ausfall automatisch auf Anthropic umgeschaltet wird.

    Verwandt:MLOpsPrompt EngineeringRAG

    Prompt Engineering

    Die Kunst, Eingaben für Sprachmodelle so zu formulieren, dass das Modell zuverlässig die gewünschte Antwort liefert.

    Prompt Engineering kombiniert klare Aufgabenbeschreibung, Kontext-Bereitstellung, Beispiele (Few-Shot), Ausgabe-Format-Vorgaben und Iteration. Gute Prompts reduzieren Halluzinationen, verbessern Konsistenz und ermöglichen automatisierte Pipelines. Im Mittelstand gehört Prompt Engineering zur KI-Kompetenz-Pflicht des EU AI Act.

    Mittelstands-Beispiel

    Statt ‚Schreibe einen Statusbericht‘ liefert ein Prompt-Engineer eine Vorlage mit Sektions-Headern, Beispiel-Sätzen, Token-Limit und Validierungs-Regeln. Das Ergebnis ist dreimal konsistenter und 30% kürzer.

    Verwandt:LLMOpsFew-Shot Learning

    Vector Database

    Datenbank, die Texte als hochdimensionale Vektoren speichert und ähnliche Texte schnell findet — Grundlage für RAG-Systeme.

    Eine Vector Database (Pinecone, Weaviate, Qdrant, pgvector) speichert Texte zusammen mit ihrer mathematischen Repräsentation als Embedding-Vektor. Bei einer Anfrage wird der Anfrage-Vektor berechnet und die nächstgelegenen Texte werden ausgegeben. Vector DBs sind das Rückgrat moderner KI-Anwendungen.

    Mittelstands-Beispiel

    Ein Hotel speichert alle Gäste-FAQs der letzten 5 Jahre als Vektor-DB. Bei einer neuen Anfrage findet das System in Millisekunden ähnliche frühere Anfragen und schlägt eine passende Antwort vor.

    Verwandt:RAGEmbedding

    Embedding

    Mathematische Repräsentation eines Textes oder Bildes als Vektor mit hunderten oder tausenden Dimensionen.

    Embeddings werden von neuronalen Netzen erzeugt: Ähnliche Konzepte landen im Vektorraum nahe beieinander. Embeddings sind die Grundlage für semantische Suche, Clustering, Klassifikation und RAG. Standard-Embedding-Modelle 2026: OpenAI text-embedding-3-large, Voyage AI, Cohere Embed v4, BGE-M3.

    Mittelstands-Beispiel

    Ein Vertrieb berechnet Embeddings für alle Kunden-E-Mails. Per Cluster-Analyse werden ähnliche Anfrage-Typen gruppiert, eine Anfragen-Statistik fällt automatisch ab.

    Fine-Tuning

    Spezialisierung eines vortrainierten Sprachmodells auf eine konkrete Aufgabe oder einen Tonfall durch zusätzliches Training.

    Fine-Tuning passt ein Basis-Modell mit firmeneigenen Beispielen an — z. B. um Branchen-Jargon zu beherrschen, einen Markenton einzuhalten oder eine domänenspezifische Aufgabe zu meistern. Im Mittelstand ist Fine-Tuning oft NICHT der erste Schritt: Prompt Engineering + RAG erreichen 80% des Effekts mit 10% des Aufwands.

    Mittelstands-Beispiel

    Ein Versicherer fine-tunt ein Modell auf 10.000 Schadenfall-Bescheide, damit das System neue Bescheide im richtigen formellen Ton erzeugt. Ohne Fine-Tuning wären die Texte stilistisch inkonsistent.

    MLOps

    Engineering-Praxis für den produktiven Betrieb von Machine-Learning-Modellen — Daten-Pipelines, Modell-Training, Monitoring, Skalierung.

    MLOps standardisiert das Life-Cycle-Management von ML-Modellen: Experiment-Tracking, Modell-Versionierung, Daten-Qualitäts-Pipelines, Deployment, Drift-Monitoring, Re-Training. MLOps ist Voraussetzung für KI-Reporting, Predictive Maintenance, Forecasting im Mittelstand.

    Mittelstands-Beispiel

    Ein Maschinenbauer trainiert monatlich ein MTBF-Forecast-Modell aus aktuellen Wartungs-Daten. MLOps-Pipeline (z. B. mit MLflow + GitHub Actions) automatisiert Training, Validierung, Deployment.

    Verwandt:LLMOpsMTBF

    Token

    Kleinste Verarbeitungs-Einheit eines Sprachmodells — etwa 0,75 Wörter im Deutschen. LLM-Kosten werden pro Token abgerechnet.

    Tokens sind kein perfektes Wort-Maß: ‚Geschäftsführer‘ wird in mehrere Tokens zerlegt, ‚the‘ ist ein einzelner Token. Standard-Annahme: 1.000 Tokens ≈ 750 deutsche Wörter. Kosten 2026 (GPT-4o): ca. 0,005 USD pro 1.000 Input-Tokens, 0,015 USD pro 1.000 Output-Tokens.

    Mittelstands-Beispiel

    Ein KI-Reporting verarbeitet täglich ca. 50.000 Input-Tokens (alle KPI-Daten) und erzeugt 5.000 Output-Tokens (Klartext-Bericht). Monatliche Kosten ca. 8-15 EUR — vernachlässigbar im Vergleich zur eingesparten Personentage.

    Verwandt:Function CallingPrompt Engineering

    Function Calling

    Fähigkeit eines Sprachmodells, strukturierte Funktions-Aufrufe (mit Parametern) zu erzeugen — Grundlage für Agentic AI.

    Function Calling erlaubt einem LLM, statt Freitext einen strukturierten JSON-Output mit Funktion und Parametern zu erzeugen. Anwendungen: Tool-Use (LLM ruft Datenbank-Query auf), Strukturierte Extraktion (LLM zieht Daten aus Text), Workflow-Steuerung (LLM entscheidet, welcher Schritt als nächstes folgt).

    Mittelstands-Beispiel

    Ein KI-Agent nimmt eine Kunden-E-Mail entgegen, ruft via Function Calling die ‚get_customer_history‘-Funktion mit der Kunden-ID auf, kombiniert das Ergebnis und schreibt eine personalisierte Antwort.

    Verwandt:Agentic AITool-Use

    KI-Readiness

    Reifegrad eines Unternehmens für KI-Einführung — Kombination aus Datenqualität, Cloud-Reife, Skills, Use-Case-Pipeline und Governance.

    KI-Readiness misst nicht ‚Haben wir KI-Tools?‘, sondern ‚Können wir KI-Projekte erfolgreich umsetzen?‘. Modular Ops bewertet KI-Readiness in 12 Punkten: Datenqualität, Datenstruktur, Cloud-Reife, IT-Architektur, Sicherheits-Grundlagen, Daten-Governance, Use-Case-Pipeline, Stakeholder-Alignment, Skills im Team, Change-Management, EU-AI-Act-Risiko-Klassifikation, Tooling-Reife.

    Mittelstands-Beispiel

    Ein 250-MA-Industrie-Unternehmen erhält im KI-Readiness-Check Reifegrad 2,3 von 5. Quick Wins: Reporting-Automatisierung (Datenqualität reicht), Engineering-Knowledge-Suche. Schlechte Use-Cases zum Start: Predictive Maintenance (Datenqualität nur 50%).

    Verwandt:EU AI ActAI-Sprint

    EU AI Act

    Europäische KI-Verordnung (Verordnung 2024/1689), die KI-Systeme nach Risiko klassifiziert und Pflichten für Anbieter und Anwender definiert.

    Der EU AI Act trat am 1. August 2024 in Kraft. Risiko-Klassen: minimal, begrenzt, hoch, inakzeptabel. Schlüssel-Pflichten: KI-Kompetenz für Mitarbeiter (Artikel 4, ab 02/2025), Transparenzpflicht für KI-Interaktionen (Artikel 50), Konformitätsbewertung für Hochrisiko-Systeme. Verstöße: bis zu 7% des Jahresumsatzes oder 35 Mio. EUR.

    Mittelstands-Beispiel

    Ein Maschinenbauer prüft jeden KI-Use-Case auf Risiko-Klasse: Reporting (risiko-arm), MTBF-Forecast (risiko-arm), Personal-Schichtplanung (Hochrisiko, Anhang III), KI in Sicherheitskreis-Funktion (Hochrisiko, Maschinen-Verordnung).

    OEE

    Overall Equipment Effectiveness — Schlüssel-KPI in der Fertigung, Produkt aus Verfügbarkeit × Leistung × Qualität.

    OEE = (Verfügbarkeit / 100) × (Leistung / 100) × (Qualität / 100) × 100%. Werte über 85% gelten als ‚World Class‘, viele Mittelständler liegen zwischen 50-70%. KI-Reporting macht OEE-Trends täglich sichtbar und identifiziert Drift in Maschinenparametern, bevor sie zu Ausschuss werden.

    Mittelstands-Beispiel

    Ein Sondermaschinenbauer hat OEE 62%. KI-Reporting identifiziert: 18% Verfügbarkeitsverlust durch geplante Wartungen, 8% durch ungeplante Stillstände, 12% Leistungsverlust durch sub-optimale Spindel-Drehzahlen.

    MTBF

    Mean Time Between Failures — durchschnittliche Laufzeit zwischen ungeplanten Anlagen-Ausfällen.

    MTBF wird in Stunden oder Tagen gemessen. Höhere MTBF = zuverlässigere Anlage. Predictive Maintenance mit ML-Modellen prognostiziert MTBF und schlägt Wartungs-Termine 4-12 Wochen voraus vor. Voraussetzung: 12-18 Monate saubere Wartungs-Historie.

    Mittelstands-Beispiel

    Ein Maschinenbauer hat MTBF 312 Stunden. ML-Modell prognostiziert auf Basis von Schwingungs-Sensoren, dass Anlage 04 in 45 Tagen mit 78%-Wahrscheinlichkeit ausfällt. Wartung wird vorgezogen, 2-Tage-Stillstand vermieden.

    Verwandt:OEEMLOps

    Kaufanlass

    Externe Marktsignale, die auf eine aktive Investitionsentscheidung bei einem potenziellen Kunden hindeuten — Grundlage für proaktiven B2B-Vertrieb.

    Klassische Kaufanlässe: Ausschreibungen, Pressemeldungen über Investitionen, neue Stellenanzeigen mit relevantem Tech-Stack, Leitungswechsel, Bauprojekt-Ankündigungen, Förderbescheide. KI-gestützte Kaufanlass-Radare aggregieren diese Signale automatisch und liefern strukturierte Briefings an den Vertrieb.

    Mittelstands-Beispiel

    Ein B2B-Maschinenbauer scannt täglich öffentliche Ausschreibungen, Stellenanzeigen und Pressemeldungen. KI markiert ‚Kunde X plant Erweiterung um 2 Linien laut Geschäftsbericht‘ — Vertrieb meldet sich gezielt, eine Woche vor Wettbewerb.

    Verwandt:Risk MiningKaufanlass-Radar

    KI-Begriff fehlt oder unklar?

    Unser Glossar wächst mit der Praxis. Schreiben Sie uns, welcher Begriff Sie aktuell beschäftigt — wir nehmen ihn ins nächste Update auf.

    Erstgespräch buchen

    Häufige Fragen zum KI-Glossar