KI-Glossar
Du stolperst über KI-Begriffe und weißt nicht, was sie bedeuten? Hier findest du klare Erklärungen – ohne Fachjargon, auf Deutsch.
Kein Begriff gefunden. Probiere einen anderen Suchbegriff.
A/B-Testing
Eine Methode, bei der zwei Varianten eines Systems oder einer Anwendung gleichzeitig getestet werden, um herauszufinden, welche besser funktioniert. Im KI-Kontext vergleichst du damit z.B. zwei verschiedene Modelle, Prompts oder Empfehlungsalgorithmen anhand realer Nutzerdaten.
Verwandt: Benchmark
Accuracy
Ein grundlegendes Gütemaß für KI-Modelle, das angibt, wie viele Vorhersagen insgesamt korrekt waren. Bei unausgewogenen Datensätzen – z.B. wenn 99 % der Fälle negativ sind – kann eine hohe Accuracy trotzdem ein schlechtes Modell verbergen.
Verwandt: F1-Score
Active Learning
Ein Trainingsansatz, bei dem das Modell aktiv die Datenpunkte auswählt, bei denen es sich am unsichersten ist, und einen Menschen um eine Einschätzung bittet. So erreichst du mit weniger gelabelten Daten eine höhere Modellqualität.
Verwandt: Datenlabeling
Adversarial Attack
Ein gezielter Angriff, bei dem minimale, oft für Menschen unsichtbare Veränderungen an Eingabedaten ein KI-Modell zur falschen Vorhersage bringen. Ein klassisches Beispiel: ein leicht verändertes Bild, das eine KI als "Toaster" klassifiziert, obwohl es eindeutig ein Panda ist.
Verwandt: Black Box
Agentic AI
KI-Systeme, die nicht nur auf einzelne Anfragen reagieren, sondern eigenständig Ziele verfolgen, Aufgaben planen und Werkzeuge einsetzen. Agentic AI kombiniert ein Sprachmodell mit der Fähigkeit, Aktionen in der realen Welt auszuführen – z.B. Dateien bearbeiten, APIs aufrufen oder Browser steuern.
Verwandt: KI-Agent
Agentic Workflow
Ein automatisierter Arbeitsablauf, in dem KI-Agenten mehrere Schritte eigenständig planen und ausführen, oft mit Rückkopplungsschleifen. Statt eines einzelnen Prompts durchläuft der Agent Phasen wie Recherche, Planung, Ausführung und Selbstkorrektur.
Verwandt: Agentic AI
AGI
Artificial General Intelligence – eine hypothetische KI, die menschliche kognitive Fähigkeiten in allen Bereichen erreicht oder übertrifft. Aktuelle KI-Systeme sind sogenannte "Narrow AI" und beherrschen nur spezifische Aufgaben. Wann und ob AGI erreichbar ist, bleibt in der Wissenschaft stark umstritten.
Verwandt: AI Alignment
AI Alignment
Die Forschungsdisziplin, die sicherstellen soll, dass KI-Systeme das tun, was Menschen wirklich beabsichtigen – auch bei steigender Autonomie und Intelligenz. Misalignment entsteht, wenn ein System sein Trainingsziel optimiert, aber dabei unerwünschte Nebeneffekte erzeugt.
Verwandt: AGI
AI PC
Ein PC oder Laptop mit dedizierter NPU (Neural Processing Unit), die KI-Aufgaben energieeffizient direkt auf dem Gerät ausführt. Microsoft Copilot+ PCs und Apples M-Chips sind bekannte Beispiele. Der Trend ermöglicht lokale KI-Inferenz ohne Cloud-Verbindung.
Verwandt: Edge AI
AI Slop
Umgangssprachlicher Begriff für massenhaft generierte, qualitativ minderwertige KI-Inhalte – Texte, Bilder oder Videos ohne erkennbaren redaktionellen Mehrwert. Das Phänomen tritt auf, wenn Inhalte ohne menschliche Kurierung automatisch veröffentlicht werden und das Internet mit Standardformulierungen überschwemmen.
Verwandt: Generative KI
Aktivierungsfunktion
Eine mathematische Funktion in neuronalen Netzen, die entscheidet, ob und wie stark ein Neuron "feuert". Ohne Aktivierungsfunktionen wären neuronale Netze nur lineare Gleichungssysteme – sie ermöglichen erst das Lernen komplexer, nichtlinearer Zusammenhänge. Bekannte Beispiele sind ReLU und Sigmoid.
Verwandt: Neuronales Netz
Algorithmus
Ein Satz von Regeln, die ein Computer Schritt für Schritt befolgt, um eine Aufgabe zu lösen. Algorithmen sind das Herzstück jeder Software – von der Suchmaschine bis zur KI.
Anomalie-Erkennung
KI-Verfahren, das ungewöhnliche Muster in Daten identifiziert, die von der Norm abweichen. Typische Anwendungen sind Betrugserkennung bei Zahlungen, Fehlerfrüherkennung in Maschinen und Netzwerksicherheit. Das System lernt dabei, was "normal" ist, und schlägt Alarm bei Abweichungen.
Verwandt: Machine Learning
API
Eine Schnittstelle (Application Programming Interface), über die Programme miteinander kommunizieren können. Wenn du ChatGPT in deine App einbindest, nutzt du die OpenAI-API.
Approximate Nearest Neighbor
Ein Algorithmus, der bei der Vektorsuche nicht das exakt ähnlichste Element sucht, sondern sehr schnell einen nahezu optimalen Treffer liefert. Bei Millionen von Vektoren ist exakte Suche zu langsam – ANN-Methoden wie HNSW oder FAISS machen semantische Suche in Echtzeit möglich.
Verwandt: FAISS
Attention
Ein Mechanismus in neuronalen Netzen, der es dem Modell ermöglicht, beim Verarbeiten eines Tokens die relevantesten anderen Tokens im Kontext gezielt zu gewichten. Attention ist das Herzstück der Transformer-Architektur und erklärt, warum moderne Sprachmodelle lange Zusammenhänge verstehen können.
Verwandt: Transformer
Autoencoder
Eine Netzwerkarchitektur, die Daten in eine kompakte Darstellung (Latent Space) komprimiert und anschließend wieder rekonstruiert. Autoencoder werden für Datenkompression, Rauschunterdrückung und als Grundlage für generative Modelle eingesetzt.
Verwandt: Diffusion Model
Automatisierung
Der Einsatz von Technologie, um wiederkehrende Aufgaben ohne menschliches Eingreifen auszuführen. KI bringt Automatisierung auf ein neues Niveau: Statt starrer Regeln können KI-gestützte Systeme auch unstrukturierte Aufgaben wie das Lesen von E-Mails, das Erstellen von Berichten oder das Beantworten von Kundenanfragen übernehmen.
Verwandt: KI-Agent
AutoML
Automatisiertes Machine Learning – Werkzeuge, die den gesamten Prozess der Modellauswahl, Hyperparameter-Optimierung und Feature-Auswahl automatisieren. AutoML senkt die Einstiegshürde für KI-Projekte und ermöglicht auch Nicht-Experten, leistungsfähige Modelle zu erstellen.
Verwandt: Feature Engineering
Autonomer Agent
Ein KI-System, das eigenständig Entscheidungen trifft und Aktionen ausführt, um ein vorgegebenes Ziel zu erreichen – ohne bei jedem Schritt menschliche Eingabe zu benötigen. Autonome Agenten kombinieren Wahrnehmung, Planung und Ausführung in einem kontinuierlichen Regelkreis.
Verwandt: Agentic AI
Autoregressive Generation
Ein Verfahren zur Textgenerierung, bei dem ein Modell Token für Token erzeugt – jeder neue Token basiert auf allen vorherigen. Alle gängigen Sprachmodelle wie GPT oder Claude nutzen dieses Prinzip. Es erklärt, warum LLMs Text nicht rückwärts korrigieren können.
Verwandt: Large Language Model (LLM)
Backpropagation
Der Kernalgorithmus, mit dem neuronale Netze trainiert werden. Nach einer Vorhersage berechnet Backpropagation, wie stark jeder Parameter zum Fehler beigetragen hat, und passt die Gewichte entsprechend an. Ohne Backpropagation wäre modernes Deep Learning nicht möglich.
Verwandt: Gradient Descent
Batch
Eine Gruppe von Datenpunkten, die gleichzeitig für einen Trainingsschritt verwendet werden. Die Batch-Größe beeinflusst Trainingsgeschwindigkeit, Speicherbedarf und die Qualität der Gradientenschätzung.
Verwandt: Epoche
Batch-Inferenz
Die gleichzeitige Verarbeitung vieler Eingaben durch ein KI-Modell, statt jede Anfrage einzeln zu bearbeiten. Batch-Inferenz ist deutlich effizienter und kostengünstiger für große Verarbeitungsvolumen, bei denen keine Echtzeit-Antwort erforderlich ist.
Verwandt: Durchsatz
Bayesian Optimization
Eine intelligente Methode zur Hyperparameter-Suche, die vergangene Experimente nutzt, um die nächsten vielversprechendsten Konfigurationen auszuwählen. Im Vergleich zu Grid Search oder Random Search findet Bayesian Optimization gute Hyperparameter mit weniger Trainingsläufen.
Verwandt: AutoML
Beam Search
Eine Suchheuristik zur Textgenerierung, die gleichzeitig mehrere mögliche Fortsetzungen (Beams) verfolgt und am Ende die wahrscheinlichste Sequenz auswählt. Beam Search erzeugt oft kohärenteren Text als Greedy Decoding, ist aber langsamer.
Verwandt: Greedy Decoding
Benchmark
Ein standardisierter Test zur objektiven Leistungsmessung von KI-Modellen. Bekannte Benchmarks wie MMLU, HumanEval oder GSM8K vergleichen Modelle über verschiedene Aufgaben hinweg. Achtung: Modelle können auf Benchmarks übertrainiert sein und in der Praxis trotzdem schwächeln.
Verwandt: Evals
BERT
Bidirectional Encoder Representations from Transformers – ein einflussreiches Sprachmodell von Google (2018), das Text in beide Richtungen gleichzeitig verarbeitet. BERT revolutionierte NLP-Aufgaben wie Textklassifikation und Named Entity Recognition und war Wegbereiter der modernen LLM-Ära.
Verwandt: Transformer
Bias (Verzerrung)
Systematische Fehler oder Vorurteile in KI-Systemen, die zu unfairen oder falschen Ergebnissen führen. Bias entsteht oft durch unausgewogene Trainingsdaten – zum Beispiel wenn ein KI-System überwiegend auf Daten einer bestimmten Bevölkerungsgruppe trainiert wurde. Unternehmen müssen aktiv prüfen, ob ihre KI-Systeme bestimmte Gruppen bevorzugen oder benachteiligen.
Verwandt: Training / Trainingsdaten
Black Box
Ein KI-System, dessen interne Entscheidungslogik nicht nachvollziehbar ist – man sieht Eingabe und Ausgabe, aber nicht den Weg dazwischen. Viele leistungsfähige Deep-Learning-Modelle sind Black Boxes, was in regulierten Branchen wie Medizin oder Recht problematisch sein kann.
Verwandt: Explainability (XAI)
Chain-of-Thought (CoT)
Eine Prompting-Technik, bei der das Modell aufgefordert wird, seinen Lösungsweg Schritt für Schritt zu erklären, bevor es zur Antwort kommt. Chain-of-Thought verbessert die Leistung bei komplexen Rechen- und Logikaufgaben erheblich, weil das Modell Zwischenschritte explizit "durchdenkt".
Verwandt: Prompt Engineering
Chatbot
Ein KI-gestütztes Programm, das Textgespräche mit Menschen führen kann. Moderne Chatbots basieren auf Large Language Models und können komplexe Gespräche führen. Im Unterschied zu einem KI-Agenten reagiert ein Chatbot auf einzelne Nachrichten, plant aber keine mehrstufigen Aufgaben eigenständig.
Verwandt: Large Language Model (LLM)
ChatGPT
Der KI-Chatbot von OpenAI, der im November 2022 veröffentlicht wurde und KI für die breite Öffentlichkeit zugänglich machte. ChatGPT basiert auf der GPT-Modellfamilie und erreichte in Rekordzeit 100 Millionen Nutzer.
Verwandt: Large Language Model (LLM)
Checkpointing
Das regelmäßige Speichern des Modellzustands während des Trainings. Bei einem Absturz oder Fehler kannst du das Training vom letzten Checkpoint fortsetzen, statt von vorne zu beginnen. Beim Training großer Modelle über Wochen ist Checkpointing unverzichtbar.
Verwandt: Training / Trainingsdaten
Claude
Die KI-Assistenten-Familie von Anthropic, benannt nach dem Informationstheoretiker Claude Shannon. Claude-Modelle sind bekannt für ihren Fokus auf Sicherheit, lange Kontextfenster und nuancierte Textverarbeitung. Sie werden sowohl über die Claude.ai-Oberfläche als auch per API eingesetzt.
Verwandt: Constitutional AI
Clustering
Ein unüberwachtes Lernverfahren, das Datenpunkte anhand ihrer Ähnlichkeit in Gruppen einteilt – ohne vorher bekannte Labels. Typische Algorithmen sind K-Means und DBSCAN. Anwendungen: Kundensegmentierung, Themenerkennung in Texten, Anomalie-Erkennung.
Verwandt: Anomalie-Erkennung
CNN (Convolutional Neural Network)
Eine Netzwerkarchitektur, die speziell für die Verarbeitung von Bilddaten entwickelt wurde. CNNs lernen lokale Muster wie Kanten und Texturen durch Faltungsoperationen und bauen diese zu komplexen Merkmalen auf. Sie bilden die Grundlage moderner Computer-Vision-Systeme.
Verwandt: Computer Vision
Computer Use
Eine Fähigkeit von KI-Agenten, einen Computer direkt zu steuern – also Screenshots zu analysieren, Maus zu bewegen und Tastatureingaben zu machen. Anthropic hat diese Fähigkeit mit Claude demonstriert. Computer Use ermöglicht die Automatisierung beliebiger Software ohne dedizierte API-Integration.
Verwandt: Autonomer Agent
Computer Vision
Ein Bereich der KI, der Computern ermöglicht, visuelle Informationen aus Bildern und Videos zu verstehen. Computer Vision wird eingesetzt für Gesichtserkennung, medizinische Bildanalyse, autonomes Fahren und Qualitätskontrolle in der Produktion. Moderne Systeme übertreffen Menschen bei bestimmten Bildanalyse-Aufgaben.
Verwandt: Deep Learning
Constitutional AI
Eine Trainingsmethode von Anthropic, bei der das KI-Modell anhand eines expliziten Regelwerks (der "Verfassung") lernt, hilfreich und harmlos zu sein. Das Modell bewertet seine eigenen Ausgaben und überarbeitet sie nach diesen Prinzipien – ohne ausschließlich auf menschliches Feedback angewiesen zu sein.
Verwandt: AI Alignment
Containerisierung
Eine Technologie (z.B. Docker, Kubernetes), die Anwendungen mit allen Abhängigkeiten in isolierte, portable Einheiten verpackt. Im KI-Betrieb ermöglicht Containerisierung reproduzierbare Deployments von Modellen und konsistente Umgebungen zwischen Entwicklung und Produktion.
Verwandt: Modell-Deployment
Context Engineering
Die Disziplin, den Kontext (Systemprompt, Dokumente, Gesprächshistorie, Tool-Outputs) so zu gestalten, dass ein LLM optimale Ergebnisse liefert. Context Engineering geht über klassisches Prompt Engineering hinaus und umfasst die gesamte Informationsarchitektur, die dem Modell bereitgestellt wird.
Verwandt: Prompt Engineering
Conversational AI
KI-Systeme, die natürliche Dialogführung über mehrere Gesprächsrunden ermöglichen. Conversational AI umfasst Chatbots, Sprachassistenten und Customer-Service-Systeme. Im Unterschied zu einfachen Bots können moderne Systeme Kontext über den Gesprächsverlauf hinweg halten.
Verwandt: Chatbot
Cross-Validation
Eine Methode zur zuverlässigeren Bewertung von Modellleistung, bei der der Datensatz in mehrere Teile aufgeteilt wird. Das Modell wird abwechselnd auf verschiedenen Teilmengen trainiert und getestet. Cross-Validation hilft, Overfitting zu erkennen und liefert stabilere Leistungsschätzungen als ein einzelner Test-Split.
Verwandt: Overfitting
DALL-E
Ein Bildgenerierungsmodell von OpenAI, das aus Textbeschreibungen realistische und kreative Bilder erzeugt. DALL-E war eines der ersten Modelle, das die Qualität generativer Bildmodelle breiter Öffentlichkeit zugänglich machte, und konkurriert heute mit Midjourney und Stable Diffusion.
Verwandt: Diffusion Model
Data Augmentation
Techniken, die vorhandene Trainingsdaten künstlich erweitern, indem Variationen erstellt werden – z.B. Bilder spiegeln, rotieren oder mit Rauschen versehen. Data Augmentation verbessert die Generalisierung des Modells und reduziert den Bedarf an teuren, manuell gelabelten Daten.
Verwandt: Training / Trainingsdaten
Data Science
Die Wissenschaft, aus Daten nützliche Erkenntnisse zu gewinnen. Data Scientists kombinieren Statistik, Programmierung und Fachkenntnisse, um Muster in Daten zu finden.
Verwandt: Machine Learning
Dataset
Eine strukturierte Sammlung von Daten, die zum Training, zur Validierung oder zum Testen von KI-Modellen verwendet wird. Die Qualität und Repräsentativität eines Datasets bestimmt maßgeblich, wie gut das trainierte Modell in der Praxis funktioniert.
Verwandt: Training / Trainingsdaten
Datenlabeling
Der Prozess, Rohdaten mit Annotationen zu versehen, die dem Modell zeigen, was die "richtige" Antwort ist. Beispiele: Bilder mit Objektrahmen markieren, Texte mit Stimmungen kategorisieren, Sprachaufnahmen transkribieren. Datenlabeling ist oft zeitaufwändig und kostspielig – und entscheidend für die Modellqualität.
Verwandt: Training / Trainingsdaten
Datenschutz
Im KI-Kontext bezeichnet Datenschutz den Schutz personenbezogener Daten bei der Entwicklung und dem Betrieb von KI-Systemen. In Europa ist die DSGVO der zentrale Rechtsrahmen. Besondere Herausforderungen entstehen bei der Nutzung von Kundendaten für Training, bei Sprachmodellen mit Gedächtnisfunktion und beim Einsatz von KI in sensiblen Bereichen.
Verwandt: DSGVO
Deep Learning
Eine besonders leistungsfähige Form des maschinellen Lernens mit künstlichen neuronalen Netzen. Deep Learning hat Bilderkennung, Sprachverarbeitung und KI revolutioniert.
Verwandt: Neuronales Netz
Deepfake
Synthetische Medieninhalte – Videos, Audios oder Bilder – bei denen KI das Aussehen oder die Stimme einer Person realistisch fälscht. Deepfakes werden für Desinformation, Betrug und nicht-konsensuellen Missbrauch eingesetzt. Die Technologie basiert auf GANs oder Diffusion Models.
Verwandt: GAN (Generative Adversarial Network)
DeepSeek
Ein chinesisches KI-Unternehmen und seine gleichnamige Modellfamilie, die mit deutlich geringerem Trainingsaufwand mit führenden westlichen Modellen konkurriert. DeepSeek-R1 sorgte Anfang 2025 für Aufsehen, weil es trotz vergleichsweise kleinem Budget ChatGPT in mehreren Benchmarks einholte.
Verwandt: Large Language Model (LLM)
Diffusion Model
Eine generative Modellarchitektur, die lernt, schrittweise Rauschen aus einem verrauschten Bild zu entfernen, bis ein kohärentes Ergebnis entsteht. Diffusion Models bilden die Grundlage von Stable Diffusion, Midjourney und DALL-E und haben GANs als dominante Bildgenerierungsarchitektur weitgehend abgelöst.
Verwandt: GAN (Generative Adversarial Network)
Distillation
Eine Technik, bei der ein kleines "Student"-Modell darauf trainiert wird, das Verhalten eines größeren "Teacher"-Modells nachzuahmen. Durch Distillation entstehen kompakte Modelle, die einen Großteil der Leistung des Originals erreichen – bei deutlich geringerem Speicher- und Rechenaufwand.
Verwandt: Fine-Tuning
Dokumentenverarbeitung
Der KI-gestützte Prozess, strukturierte und unstrukturierte Dokumente – Rechnungen, Verträge, Formulare – automatisch zu lesen, zu klassifizieren und relevante Informationen zu extrahieren. Moderne Systeme kombinieren OCR, Named Entity Recognition und LLMs für hohe Genauigkeit.
Verwandt: Natural Language Processing (NLP)
DPO (Direct Preference Optimization)
Eine Alternative zum Reinforcement Learning from Human Feedback (RLHF), die Modelle direkt auf Basis von Präferenzdaten trainiert – ohne ein separates Reward-Modell. DPO ist stabiler zu trainieren und hat sich als wichtige Methode für das Alignment von Sprachmodellen etabliert.
Dropout
Eine Regularisierungstechnik für neuronale Netze, bei der während des Trainings zufällig ein Teil der Neuronen deaktiviert wird. Das zwingt das Netz, robustere Repräsentationen zu lernen, und reduziert Overfitting erheblich.
Verwandt: Overfitting
DSGVO
Die Datenschutz-Grundverordnung der EU, die regelt, wie personenbezogene Daten verarbeitet werden dürfen. Für KI-Anwendungen in Europa ist die DSGVO ein zentrales rechtliches Rahmenwerk.
Verwandt: EU AI Act
Durchsatz
Die Anzahl von Anfragen oder Tokens, die ein KI-System pro Zeiteinheit verarbeiten kann. Durchsatz ist eine zentrale Infrastruktur-Kenngröße – besonders bei skalierten Produktivsystemen, wo Latenz und Kosten pro Token direkt vom Durchsatz abhängen.
Verwandt: Inferenz
Edge AI
KI-Systeme, die direkt auf dem Gerät laufen – auf dem Smartphone, der Kamera oder der Maschine – anstatt auf entfernten Servern in der Cloud. Edge AI ist schneller, datenschutzfreundlicher und funktioniert auch ohne Internetverbindung. Typische Anwendungen: Spracherkennung auf dem Handy, Qualitätsprüfung in der Fabrik, autonome Fahrzeuge.
Verwandt: Computer Vision
Embedding
Eine numerische Vektordarstellung von Text, Bildern oder anderen Daten, die semantische Ähnlichkeit in geometrische Nähe übersetzt. Embeddings sind die Grundlage für semantische Suche, Empfehlungssysteme und RAG-Systeme: Ähnliche Inhalte landen nah beieinander im Vektorraum.
Verwandt: Vektordatenbank
Embedding-Modell
Ein spezialisiertes KI-Modell, das Text (oder andere Daten) in Vektoren umwandelt. Anders als generative Modelle erzeugen Embedding-Modelle keine Texte, sondern numerische Repräsentationen für Vergleiche und Suche. Bekannte Beispiele: OpenAI text-embedding-3, Cohere Embed.
Verwandt: Embedding
Encoder-Decoder
Eine Modellarchitektur mit zwei Komponenten: Der Encoder verarbeitet die Eingabe in eine kompakte Repräsentation, der Decoder generiert daraus die Ausgabe. Diese Architektur wird für Übersetzung, Zusammenfassung und andere Seq-to-Seq-Aufgaben eingesetzt. T5 und BART sind bekannte Beispiele.
Verwandt: Transformer
Entscheidungsbaum
Ein interpretiertes Lernmodell, das Entscheidungen als Baumstruktur aus Wenn-Dann-Regeln abbildet. Entscheidungsbäume sind leicht verständlich, aber anfällig für Overfitting. Moderne Ensemble-Methoden wie Random Forest und Gradient Boosting kombinieren viele Bäume zu deutlich robusteren Modellen.
Verwandt: Gradient Boosting
Epoche
Ein vollständiger Durchlauf durch den gesamten Trainingsdatensatz. Beim Training werden meist viele Epochen durchgeführt. Zu wenige Epochen führen zu Underfitting, zu viele zu Overfitting – die optimale Anzahl wird über Validierungsdaten bestimmt.
Verwandt: Batch
EU AI Act
Das KI-Gesetz der EU, das Regeln für den Einsatz von KI in Europa festlegt. Es klassifiziert KI-Systeme nach Risikostufen und definiert Anforderungen für Transparenz, Sicherheit und Verantwortung.
Verwandt: DSGVO
Evals
Strukturierte Evaluierungsverfahren, mit denen die Qualität, Sicherheit und Nützlichkeit von KI-Modellen gemessen wird. Evals gehen über einfache Benchmarks hinaus und umfassen oft aufgabenspezifische Testsuiten, menschliche Bewertungen und automatisierte Qualitätschecks.
Verwandt: Benchmark
Explainability (XAI)
Der Bereich der KI, der sich damit beschäftigt, Modellentscheidungen für Menschen verständlich zu machen. Methoden wie SHAP oder LIME erklären, welche Eingabefaktoren zu einer bestimmten Vorhersage geführt haben. XAI ist besonders wichtig in regulierten Bereichen wie Kreditvergabe oder Medizin.
Verwandt: Black Box
Extended Thinking
Eine Modell-Fähigkeit, bei der das System vor der Antwort einen internen "Denk"-Prozess durchläuft, der für den Nutzer optional sichtbar ist. Extended Thinking verbessert die Leistung bei komplexen Reasoning-Aufgaben und ist z.B. in Claude 3.7 Sonnet implementiert.
Verwandt: Chain-of-Thought (CoT)
F1-Score
Ein Gütemaß für KI-Klassifikationsmodelle, das Precision und Recall zu einem einzigen Wert kombiniert. Der F1-Score ist besonders nützlich bei ungleichmäßig verteilten Klassen, wo Accuracy irreführend sein kann.
Verwandt: Accuracy
Fairness
Das Prinzip, dass KI-Systeme keine systematischen Nachteile für bestimmte Gruppen erzeugen sollen. Fairness ist kein einzelnes Konzept, sondern ein Bündel verschiedener, teilweise widersprüchlicher mathematischer Definitionen. In der Praxis müssen Unternehmen aktiv testen, ob ihre Modelle diskriminierend wirken.
Verwandt: Bias (Verzerrung)
FAISS
Facebook AI Similarity Search – eine Open-Source-Bibliothek für hocheffiziente Vektorsuche, entwickelt von Meta. FAISS wird eingesetzt, wenn Millionen oder Milliarden von Embeddings in Millisekunden durchsucht werden müssen, und bildet die Grundlage vieler RAG-Systeme.
Verwandt: Approximate Nearest Neighbor
Feature
Eine messbare Eigenschaft oder Variable, die als Eingabe für ein KI-Modell dient. Bei einem Kreditrisikomodell könnten Features das Alter, das Einkommen und die Anzahl bisheriger Kredite sein. Die Auswahl und Qualität der Features hat enormen Einfluss auf die Modellleistung.
Verwandt: Feature Engineering
Feature Engineering
Der Prozess, aus Rohdaten aussagekräftige Input-Variablen für ein Modell zu erstellen. Gutes Feature Engineering erfordert Domänenwissen und war vor der Deep-Learning-Ära die wichtigste Stellschraube für Modellqualität. Tiefe Netze lernen Features oft selbstständig, aber in strukturierten Daten bleibt Feature Engineering entscheidend.
Verwandt: Feature
Feature Store
Eine zentrale Plattform, die berechnete Features für Machine-Learning-Modelle speichert, versioniert und für Training und Inferenz bereitstellt. Feature Stores lösen das Problem, dass Features in unterschiedlichen Teams doppelt berechnet oder inkonsistent verwendet werden.
Verwandt: Feature Engineering
Few-Shot Prompting
Eine Prompting-Technik, bei der dem Modell wenige Beispiele (Shots) im Prompt mitgegeben werden, um das gewünschte Ausgabeformat oder Verhalten zu demonstrieren. Few-Shot Prompting ist effektiver als keine Beispiele (Zero-Shot), ohne das Modell aufwändig neu zu trainieren.
Verwandt: Prompt Engineering
Fine-Tuning
Das Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe mit eigenen Daten. Statt von Null zu trainieren, baut man auf ein bestehendes Modell auf – effizienter und kostengünstiger. Fine-Tuning ermöglicht es Unternehmen, allgemeine Sprachmodelle auf ihre Branche, Produkte oder Schreibstil anzupassen.
Verwandt: Training / Trainingsdaten
Flash Model
Bezeichnung für besonders schnelle, kostengünstige Varianten großer KI-Modelle – z.B. Gemini Flash oder Claude Haiku. Flash-Modelle sind für den Massenmarkt optimiert und bieten einen guten Kompromiss zwischen Geschwindigkeit, Kosten und Qualität für einfachere Aufgaben.
Verwandt: Foundation Model
Foundation Model
Ein großes, auf breiten Datenmengen vortrainiertes Modell, das als Grundlage für viele verschiedene Downstream-Aufgaben dient. GPT-4, Claude, Gemini und Llama sind Foundation Models. Der Begriff wurde 2021 von der Stanford-Gruppe geprägt.
Verwandt: Large Language Model (LLM)
Function Calling
Eine Fähigkeit von LLMs, strukturiert externe Werkzeuge oder APIs aufzurufen, indem sie Funktionsnamen und Parameter als strukturierten Output erzeugen. Function Calling ist der Kernmechanismus, mit dem Agenten Aktionen in der realen Welt auslösen – z.B. eine Datenbankabfrage oder einen Kalendertermin erstellen.
Verwandt: KI-Agent
GAN (Generative Adversarial Network)
Eine generative Modellarchitektur, bei der zwei neuronale Netze gegeneinander trainieren: ein Generator, der Daten erzeugt, und ein Diskriminator, der echte von gefälschten Daten unterscheiden soll. GANs haben fotorealistische Bildgenerierung popularisiert, sind aber schwieriger zu trainieren als Diffusion Models.
Verwandt: Diffusion Model
Gemini
Die multimodale KI-Modellfamilie von Google DeepMind, verfügbar in den Varianten Ultra, Pro, Flash und Nano. Gemini war das erste Modell, das nativ mit Text, Bildern, Audio und Video umgehen kann, und konkurriert direkt mit GPT-4 und Claude.
Verwandt: Large Language Model (LLM)
Generalisierung
Die Fähigkeit eines trainierten KI-Modells, auf unbekannten Daten gut zu funktionieren. Ein Modell, das nur auf den Trainingsdaten gut abschneidet, auf neuen Daten aber versagt, hat schlecht generalisiert (Overfitting). Generalisierung ist das eigentliche Ziel des Maschinenlernens.
Verwandt: Overfitting
Generative KI
KI-Systeme, die neue Inhalte erstellen können – Texte, Bilder, Musik oder Code. ChatGPT, Midjourney und Sora sind bekannte Beispiele für generative KI-Tools.
Verwandt: Large Language Model (LLM)
Gesichtserkennung
KI-Technologie zur automatischen Identifikation von Personen anhand ihrer Gesichtsmerkmale. Gesichtserkennung ist weit verbreitet in Smartphone-Entsperrung und Sicherheitssystemen, steht aber wegen Datenschutz, Bias und Überwachungspotenzialen unter starkem regulatorischen Druck in der EU.
Verwandt: Computer Vision
GitHub Copilot
Ein KI-gestützter Code-Assistent von GitHub (Microsoft), der direkt in der IDE Codevorschläge, Funktionskomplettierungen und ganze Implementierungen generiert. Copilot basiert auf OpenAI-Modellen und ist eines der meistgenutzten KI-Werkzeuge in der Softwareentwicklung.
Verwandt: Large Language Model (LLM)
GPU
Graphics Processing Unit – ursprünglich für Grafik entwickelt, heute der Standard-Chip für KI-Training und -Inferenz. GPUs können tausende Rechenoperationen parallel ausführen, was für die Matrixmultiplikationen in neuronalen Netzen entscheidend ist. NVIDIA dominiert den KI-GPU-Markt mit seinen H100- und A100-Chips.
Verwandt: Edge AI
Gradient
Die Ableitung einer Verlustfunktion nach den Modellparametern – mathematisch ein Vektor, der zeigt, in welche Richtung und wie stark ein Parameter den Fehler beeinflusst. Gradienten sind die Grundlage von Backpropagation und Gradient Descent.
Verwandt: Gradient Descent
Gradient Boosting
Ein Ensemble-Lernverfahren, das viele schwache Entscheidungsbäume sequenziell trainiert, wobei jeder Baum die Fehler des Vorgängers korrigiert. Gradient Boosting (z.B. XGBoost, LightGBM) dominiert strukturierte Datensätze bei Kaggle-Wettbewerben und im Unternehmenseinsatz.
Verwandt: Entscheidungsbaum
Gradient Descent
Der Optimierungsalgorithmus, der KI-Modelle trainiert, indem er Parameter schrittweise in Richtung des steilsten Abstiegs der Verlustfunktion anpasst. Varianten wie SGD (Stochastic Gradient Descent) und Adam sind in der Praxis am verbreitetsten.
Verwandt: Gradient
Greedy Decoding
Eine einfache Textgenerierungsstrategie, bei der das Modell bei jedem Schritt immer das wahrscheinlichste nächste Token auswählt. Greedy Decoding ist schnell, erzeugt aber oft repetitive und suboptimale Texte. Alternativen sind Beam Search und Sampling-Methoden.
Verwandt: Beam Search
Ground Truth
Die als korrekt geltenden Referenzdaten, gegen die KI-Vorhersagen gemessen werden. Ground Truth wird meist von Menschen annotiert und bildet die Grundlage für Trainings- und Evaluierungsdatensätze. Die Qualität der Ground Truth bestimmt direkt die Qualität des Modells.
Verwandt: Datenlabeling
Halluzination
Wenn eine KI überzeugend klingende, aber faktisch falsche Informationen generiert. Halluzinationen entstehen, weil Sprachmodelle auf Wahrscheinlichkeiten basieren, nicht auf Faktenwissen – sie "glauben" nicht, sie berechnen. Deshalb solltest du kritische Fakten immer gegen verlässliche Quellen prüfen.
Verwandt: Large Language Model (LLM)
Human in the Loop (HITL)
Ein Ansatz, bei dem Menschen aktiv in den Entscheidungsprozess eines KI-Systems eingebunden werden. Statt vollständig autonom zu handeln, holt das System an kritischen Punkten menschliche Bestätigung oder Korrektur ein. HITL ist besonders wichtig bei Hochrisiko-Entscheidungen, etwa in der Medizin oder Justiz.
Verwandt: KI-Agent
Hyperparameter
Einstellungen eines ML-Modells, die vor dem Training festgelegt werden und den Lernprozess steuern – zum Beispiel die Lernrate, die Anzahl der Schichten oder die Batch-Größe. Im Gegensatz zu Modell-Parametern lernt das System Hyperparameter nicht selbst, sondern du oder das Team wählen sie manuell oder per automatischer Suche.
Verwandt: Training / Trainingsdaten
In-Context Learning
Die Fähigkeit eines Sprachmodells, neue Aufgaben allein durch Beispiele im Prompt zu erlernen – ohne Anpassung der Modell-Gewichte. Du gibst dem Modell einfach ein paar Beispiele im Eingabetext, und es erkennt das Muster. Diese Technik ist die Grundlage für Few-Shot-Prompting.
Verwandt: Prompt Engineering
Inferenz
Der Vorgang, bei dem ein trainiertes KI-Modell eine Vorhersage oder Antwort auf neue Eingaben erzeugt. Inferenz ist das Gegenteil von Training: Das Modell wird nicht mehr verändert, sondern wendet sein gelerntes Wissen an. Bei großen Sprachmodellen verbraucht Inferenz erhebliche Rechenressourcen.
Verwandt: Training / Trainingsdaten
Instruction Tuning
Eine Form des Fine-Tunings, bei der ein Basismodell mit Beispielen aus menschlichen Anweisungen und entsprechenden Antworten weitertrainiert wird. Das Ziel ist, das Modell besser auf natürlichsprachliche Befehle reagieren zu lassen. Modelle wie ChatGPT oder Claude basieren auf dieser Technik.
Verwandt: Fine-Tuning
Interpretierbarkeit
Die Fähigkeit, die Entscheidungen eines KI-Modells nachvollziehen und erklären zu können. Bei einfachen Modellen wie Entscheidungsbäumen ist dies leicht, bei tiefen neuronalen Netzen schwierig – man spricht dann von einer „Black Box". Interpretierbarkeit ist besonders in regulierten Bereichen wie Medizin oder Kredit-Scoring wichtig.
Verwandt: Bias (Verzerrung)
Jailbreaking
Gezielte Versuche, die Sicherheits- und Verhaltensregeln eines KI-Systems durch manipulative Prompts zu umgehen. Durch kreative Umformulierungen oder Rollenspiele können manche Nutzer Modelle dazu bringen, Inhalte zu erzeugen, die eigentlich blockiert sein sollten. KI-Anbieter arbeiten kontinuierlich an Gegenmaßnahmen.
Verwandt: Halluzination
KI (Künstliche Intelligenz)
Computersysteme, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern – wie Sprachverstehen, Bildanalyse, Entscheidungsfindung oder kreatives Schreiben.
Verwandt: Machine Learning
KI-Agent
Ein KI-System, das eigenständig Aufgaben plant und ausführt – ohne bei jedem Schritt auf menschliche Eingabe zu warten. Im Gegensatz zu einem einfachen Chatbot kann ein KI-Agent Werkzeuge nutzen, Entscheidungen treffen und mehrstufige Aufgaben abarbeiten. Beispiele: ein Agent, der selbstständig Daten recherchiert, eine Zusammenfassung erstellt und das Ergebnis per E-Mail versendet.
Verwandt: Automatisierung
KI-Copilot
Ein KI-Assistent, der Menschen bei ihrer Arbeit unterstützt, ohne vollständig autonom zu handeln. Der Begriff wurde durch GitHub Copilot für Programmierer bekannt, wird aber inzwischen für viele Werkzeuge verwendet, die neben dem Menschen arbeiten – vom Schreiben bis zur Datenanalyse.
Verwandt: KI-Agent
KI-Governance
Der Rahmen aus Regeln, Prozessen und Verantwortlichkeiten, der den verantwortungsvollen Einsatz von KI in einer Organisation oder Gesellschaft sicherstellt. Dazu gehören interne Richtlinien, Risikobewertungen und die Einhaltung gesetzlicher Vorgaben wie des EU AI Act. Ohne Governance entstehen unkontrollierte Risiken beim KI-Einsatz.
Verwandt: EU AI Act
KI-Schulden
Wenn Unternehmen KI-Systeme schnell und unkontrolliert einführen, ohne klare Strategie, Dokumentation oder Qualitätssicherung, entstehen „KI-Schulden" – also technische und organisatorische Probleme, die sich mit der Zeit häufen. Typische Symptome: veraltete Modelle im Einsatz, fehlende Datenpflege, unklare Verantwortlichkeiten. Wie finanzielle Schulden müssen KI-Schulden aktiv abgebaut werden.
Verwandt: Training / Trainingsdaten
Klassifikation
Eine grundlegende ML-Aufgabe, bei der ein Modell Eingaben einer von mehreren vordefinierten Kategorien zuordnet. Beispiele: E-Mails als Spam oder kein Spam einteilen, Bilder nach Tierart sortieren, Kundenbewertungen als positiv oder negativ klassifizieren. Klassifikation ist Supervised Learning – das Modell lernt aus beschrifteten Beispielen.
Verwandt: Supervised Learning
Knowledge Graph
Eine strukturierte Wissensdatenbank, die Fakten als Netz von Entitäten und ihren Beziehungen speichert – zum Beispiel „Hamburg ist-Stadt-in Deutschland". Knowledge Graphs werden von Suchmaschinen und KI-Systemen genutzt, um Zusammenhänge zu verstehen. Sie ergänzen Sprachmodelle, die oft keine strukturierten Fakten zuverlässig speichern.
Verwandt: RAG (Retrieval-Augmented Generation)
Konfusionsmatrix
Eine Tabelle zur Bewertung der Vorhersagequalität eines Klassifikationsmodells. Sie zeigt, wie viele Beispiele korrekt oder falsch klassifiziert wurden – aufgeteilt in richtig-positiv, falsch-positiv, richtig-negativ und falsch-negativ. Aus ihr lassen sich Kennzahlen wie Präzision, Recall und F1-Score ableiten.
Verwandt: Klassifikation
Kontextfenster
Die maximale Textmenge, die ein Sprachmodell in einem einzigen Durchgang verarbeiten kann – also Eingabe plus Ausgabe zusammen. Moderne Modelle haben Kontextfenster von 128.000 bis über einer Million Token. Inhalte außerhalb des Fensters „sieht" das Modell nicht und kann sie nicht berücksichtigen.
Verwandt: Large Language Model (LLM)
Koreferenz-Auflösung
Die Fähigkeit eines NLP-Systems zu erkennen, dass verschiedene Ausdrücke in einem Text dieselbe Person oder dasselbe Objekt meinen – zum Beispiel „Angela Merkel", „sie" und „die Kanzlerin" in einem Satz. Koreferenz-Auflösung ist wichtig für das tiefe Textverstehen und verbessert die Qualität von Zusammenfassungen und Chatbots.
Verwandt: Natural Language Processing (NLP)
Kosinus-Ähnlichkeit
Ein mathematisches Maß, das misst, wie ähnlich zwei Vektoren sind – unabhängig von ihrer Länge. In der KI wird es genutzt, um die semantische Ähnlichkeit zwischen Texten oder Embeddings zu berechnen. Ein Kosinus-Wert von 1 bedeutet identisch, 0 bedeutet komplett verschieden.
Verwandt: Embedding
Label
Die bekannte Zielgröße oder Kategorie, die einem Trainingsdatenpunkt zugewiesen ist. Beim überwachten Lernen lernt das Modell, aus Eingaben die zugehörigen Labels vorherzusagen. Labels werden oft manuell von Menschen erstellt – dieser Prozess heißt Annotation.
Verwandt: Supervised Learning
Large Language Model (LLM)
Ein großes Sprachmodell, das auf riesigen Textmengen trainiert wurde, um Sprache zu verstehen und zu generieren. GPT-4, Claude und Gemini sind bekannte LLMs. Die „Größe" eines LLM bezieht sich auf die Anzahl der Parameter – bei modernen Modellen oft mehrere hundert Milliarden.
Verwandt: Transformer
Latenz
Die Zeitspanne zwischen dem Absenden einer Anfrage an ein KI-System und dem Erhalt der ersten Antwort. Geringe Latenz ist entscheidend für interaktive Anwendungen wie Chatbots. Sie hängt von Modellgröße, Hardware, Netzwerkverbindung und Serverauslastung ab.
Verwandt: Inferenz
Lemmatisierung
Ein NLP-Verfahren, das Wörter auf ihre Grundform zurückführt – „lief" wird zu „laufen", „bessere" wird zu „gut". Im Gegensatz zum einfacheren Stemming berücksichtigt Lemmatisierung die Grammatik und liefert tatsächlich existierende Wortformen. Sie verbessert die Qualität von Textanalysen und Suchmaschinen.
Verwandt: Natural Language Processing (NLP)
Lernrate
Ein Hyperparameter, der bestimmt, wie stark ein Modell seine Gewichte nach jedem Trainingsschritt anpasst. Eine zu hohe Lernrate führt zu instabilem Training, eine zu niedrige macht den Prozess sehr langsam. Die Wahl der richtigen Lernrate ist eine der wichtigsten Entscheidungen beim Modelltraining.
Verwandt: Hyperparameter
Llama
Eine Familie offener Sprachmodelle von Meta, die kostenlos heruntergeladen und lokal betrieben werden können. Llama-Modelle sind die Grundlage vieler Open-Source-KI-Projekte und ermöglichen es Entwicklern, leistungsfähige Sprachmodelle ohne Cloud-Abhängigkeit zu nutzen. Mit jeder neuen Version verbessert sich die Leistung deutlich.
Verwandt: Large Language Model (LLM)
Logprob
Abkürzung für Log-Wahrscheinlichkeit – ein Maß dafür, wie sicher sich ein Sprachmodell bei der Wahl des nächsten Tokens ist. Hohe Logprobs bedeuten, dass das Modell diese Ausgabe als sehr wahrscheinlich bewertet. Logprobs werden genutzt, um Modell-Konfidenz zu messen oder unzuverlässige Ausgaben zu erkennen.
Verwandt: Large Language Model (LLM)
Long Context
Beschreibt Sprachmodelle oder Architekturen, die besonders große Kontextfenster verarbeiten können – oft 100.000 Token oder mehr. Long-Context-Modelle können ganze Bücher, lange Code-Repositories oder umfangreiche Dokumente auf einmal analysieren. Die Herausforderung besteht darin, relevante Informationen im riesigen Kontext zuverlässig zu finden.
Verwandt: Kontextfenster
LoRA (Low-Rank Adaptation)
Eine effiziente Methode zum Fine-Tuning großer Modelle, bei der nur ein kleiner Satz zusätzlicher Parameter trainiert wird, statt alle Modell-Gewichte anzupassen. LoRA reduziert den Speicher- und Rechenaufwand erheblich und macht Fine-Tuning auch auf Consumer-Hardware möglich. Es ist eine der beliebtesten Techniken für das Anpassen offener Modelle.
Verwandt: Fine-Tuning
LSTM (Long Short-Term Memory)
Eine spezielle Art von rekurrentem neuronalem Netz, das darauf ausgelegt ist, langfristige Abhängigkeiten in Sequenzen zu lernen. LSTMs waren vor der Transformer-Ära der Standard für Sprach- und Zeitreihenmodelle. Heute werden sie meist durch Transformer ersetzt, kommen aber noch in eingebetteten Systemen und Zeitreihenanalysen vor.
Verwandt: Transformer
Machine Learning
Ein Teilgebiet der KI, bei dem Computer aus Daten lernen, ohne explizit programmiert zu werden. Anstatt fester Regeln werden Muster aus Beispielen gelernt.
Verwandt: Deep Learning
Maschinelle Übersetzung
Die automatische Übersetzung von Text zwischen Sprachen durch KI-Systeme. Moderne Systeme wie DeepL oder Google Translate nutzen neuronale Netze und liefern in vielen Sprachpaaren nahezu professionelle Qualität. Maschinelle Übersetzung ist eine der ältesten und erfolgreichsten KI-Anwendungen.
Verwandt: Natural Language Processing (NLP)
MCP (Model Context Protocol)
Ein offenes Protokoll von Anthropic, das es KI-Modellen ermöglicht, standardisiert auf externe Werkzeuge, Datenquellen und Dienste zuzugreifen. MCP funktioniert wie eine universelle Schnittstelle zwischen Sprachmodellen und der restlichen Software-Welt. Es vereinfacht die Integration von KI-Agenten in bestehende Systeme erheblich.
Verwandt: KI-Agent
Memory (KI-Agent)
Die Fähigkeit eines KI-Agenten, Informationen über die aktuelle Sitzung hinaus zu speichern und abzurufen. Ohne Gedächtnis beginnt jeder Aufruf von vorne – mit Gedächtnis kann der Agent auf frühere Ergebnisse, Nutzerpräferenzen oder vergangene Entscheidungen zurückgreifen. Es gibt Kurzzeit- und Langzeitgedächtnis in verschiedenen Architekturen.
Verwandt: KI-Agent
Meta-Prompting
Eine Prompting-Technik, bei der du ein Sprachmodell anweist, zunächst einen besseren Prompt für eine Aufgabe zu erstellen, bevor es die eigentliche Aufgabe löst. Das Modell übernimmt dabei die Rolle des Prompt-Designers. Meta-Prompting kann die Ergebnisqualität deutlich verbessern, insbesondere bei komplexen Aufgaben.
Verwandt: Prompt Engineering
Midjourney
Ein populäres KI-Bildgenerierungssystem, das aus Textbeschreibungen hochwertige Bilder erzeugt. Midjourney ist bekannt für seinen künstlerischen Stil und wird von Designern, Kreativen und Marketern genutzt. Es ist als Discord-Bot verfügbar und hat eine eigene Web-Oberfläche.
Verwandt: Generative KI
Mistral
Ein französisches KI-Unternehmen und seine gleichnamige Familie effizienter Sprachmodelle. Mistral-Modelle gelten als besonders ressourcensparsam und liefern trotz geringer Größe starke Leistung. Sie sind teilweise als Open-Source verfügbar und bei europäischen Unternehmen mit Datenschutzanforderungen beliebt.
Verwandt: Large Language Model (LLM)
Mixture of Experts (MoE)
Eine Modellarchitektur, bei der nur ein Teil der Modell-Parameter für jede Eingabe aktiviert wird – die sogenannten Experten. Das ermöglicht sehr große Modelle mit effizientem Rechenaufwand, weil nicht alle Parameter gleichzeitig genutzt werden. GPT-4 und viele andere aktuelle Spitzenmodelle nutzen vermutlich MoE-Architekturen.
Verwandt: Transformer
MLOps
Die Kombination aus Machine Learning und DevOps – also die Praktiken und Werkzeuge, um ML-Modelle zuverlässig zu entwickeln, zu deployen und zu betreiben. MLOps umfasst Versionierung von Modellen und Daten, automatisierte Pipelines, Monitoring und Retraining. Es überbrückt die Lücke zwischen Forschung und produktivem Betrieb.
Verwandt: Modell-Deployment
Modell
Im KI-Kontext ein mathematisches System, das aus Trainingsdaten gelernt hat und neue Eingaben verarbeiten kann. Ein Modell ist das Ergebnis des Trainingsprozesses – gespeichert als Datei mit Millionen oder Milliarden von Gewichten. Der Begriff wird sowohl für kleine Klassifikatoren als auch für riesige Sprachmodelle verwendet.
Verwandt: Training / Trainingsdaten
Modell-Deployment
Der Prozess, ein trainiertes KI-Modell in eine produktive Umgebung zu bringen, sodass andere Anwendungen oder Nutzer es verwenden können. Deployment umfasst Hosting, API-Bereitstellung, Skalierung und Monitoring. Es ist oft aufwendiger als das eigentliche Training.
Verwandt: Inferenz
Modell-Komprimierung
Techniken, um KI-Modelle kleiner und schneller zu machen, ohne viel Leistung zu verlieren. Dazu gehören Quantisierung (weniger Bits pro Gewicht), Pruning (Entfernen unwichtiger Verbindungen) und Destillation (kleines Modell lernt von großem). Komprimierung ermöglicht den Einsatz auf mobilen Geräten oder Edge-Hardware.
Verwandt: Edge AI
Multi-Agent System
Eine Architektur, bei der mehrere KI-Agenten zusammenarbeiten, um komplexe Aufgaben zu lösen. Jeder Agent übernimmt eine spezialisierte Rolle – zum Beispiel Recherche, Analyse und Verfassen. Durch die Zusammenarbeit können Aufgaben parallelisiert und die Qualität durch gegenseitige Überprüfung verbessert werden.
Verwandt: KI-Agent
Multimodales Modell
Ein KI-Modell, das mehrere Eingangsmodalitäten wie Text, Bild, Audio oder Video verarbeiten kann. Im Gegensatz zu reinen Sprachmodellen können multimodale Modelle visuelle und akustische Informationen direkt einbeziehen. Beispiele sind GPT-4o, Gemini Ultra und Claude 3 Sonnet.
Verwandt: Large Language Model (LLM)
Multimodalität
Die Fähigkeit eines KI-Systems, verschiedene Datentypen gleichzeitig zu verarbeiten – Text, Bilder, Audio und Video. Multimodale Modelle wie GPT-4o oder Gemini können zum Beispiel ein Bild beschreiben, Fragen dazu beantworten oder aus einer Zeichnung Code generieren. Multimodalität nähert sich der menschlichen Wahrnehmung an.
Verwandt: Generative KI
N-Gramm
Eine Sequenz von N aufeinanderfolgenden Wörtern oder Zeichen in einem Text. Bigramme sind Zweier-Folgen, Trigramme Dreier-Folgen. N-Gramme werden in klassischen NLP-Modellen und Suchmaschinen verwendet, um Sprachmuster zu erkennen. In der Ära der Transformer spielen sie eine geringere Rolle, sind aber noch in der Textanalyse relevant.
Verwandt: Natural Language Processing (NLP)
Named Entity Recognition (NER)
Eine NLP-Aufgabe, bei der benannte Entitäten wie Personen, Orte, Organisationen oder Datumsangaben in einem Text automatisch erkannt und klassifiziert werden. NER ist ein Baustein für Informationsextraktion und wird in juristischen, medizinischen und journalistischen Anwendungen genutzt.
Verwandt: Natural Language Processing (NLP)
Nano Model
Sehr kleine Sprachmodelle mit wenigen Milliarden oder sogar nur Hunderten Millionen Parametern, die auf schwachen Geräten wie Smartphones oder Mikrocontrollern laufen können. Nano-Modelle sind auf spezifische Aufgaben optimiert und verbrauchen minimale Ressourcen. Sie sind Teil des Trends zu Effizienz und dezentraler KI.
Verwandt: Edge AI
Natural Language Generation (NLG)
Der Teilbereich der KI, der sich mit der automatischen Erzeugung von natürlichsprachlichem Text aus strukturierten Daten oder anderen Eingaben befasst. NLG kommt in automatisierten Berichten, Produktbeschreibungen und Chatbot-Antworten zum Einsatz. Moderne LLMs haben NLG auf ein neues Qualitätsniveau gehoben.
Verwandt: Large Language Model (LLM)
Natural Language Processing (NLP)
Die Fähigkeit von Computern, menschliche Sprache zu verstehen und zu verarbeiten. NLP ist die Grundlage für Chatbots, Übersetzungstools und Sprachassistenten.
Verwandt: Large Language Model (LLM)
Natural Language Understanding (NLU)
Der Teilbereich von NLP, der sich mit dem tiefen Verstehen von Sprache befasst – Absichten erkennen, Bedeutungen erschließen, Mehrdeutigkeiten auflösen. NLU ist die Grundlage für Sprachassistenten und Chatbots, die auf Nutzerwünsche sinnvoll reagieren sollen. Es ist schwieriger als reines Texterzeugen.
Verwandt: Natural Language Processing (NLP)
Neuronales Netz
Ein KI-Modell, das lose vom menschlichen Gehirn inspiriert ist und aus vernetzten Schichten besteht. Je mehr Schichten, desto „tiefer" das Netz – daher der Begriff Deep Learning.
Verwandt: Deep Learning
No-Code / Low-Code KI
KI-Plattformen, die es ermöglichen, KI-Anwendungen ohne oder mit minimalen Programmierkenntnissen zu erstellen. Tools wie Make (früher Integromat), Zapier oder Microsoft Power Automate fallen in diese Kategorie. No-Code KI demokratisiert den Zugang zur Technologie und ermöglicht es auch kleineren Unternehmen und Einzelpersonen, Prozesse zu automatisieren.
Verwandt: Automatisierung
Normalisierung
Das Umwandeln von Rohdaten in ein einheitliches Format, bevor sie für das Training oder die Inferenz genutzt werden. Dazu gehören das Skalieren numerischer Werte auf einen bestimmten Bereich, das Vereinheitlichen von Texten oder das Bereinigen fehlerhafter Einträge. Gute Normalisierung verbessert die Modellleistung und Trainingsgeschwindigkeit erheblich.
Verwandt: Training / Trainingsdaten
NotebookLM
Ein KI-gestütztes Notizbuch-Tool von Google, das es ermöglicht, eigene Dokumente hochzuladen und dann Fragen dazu zu stellen, Zusammenfassungen zu erstellen oder Zusammenhänge zu erschließen. NotebookLM arbeitet ausschließlich mit den bereitgestellten Quellen und halluziniert keine externen Fakten dazu. Es ist besonders für Recherche und Wissensarbeit geeignet.
Verwandt: RAG (Retrieval-Augmented Generation)
NPU (Neural Processing Unit)
Ein spezialisierter Chip, der für die Ausführung von KI-Berechnungen optimiert ist. Im Gegensatz zu GPUs sind NPUs auf die typischen mathematischen Operationen neuronaler Netze zugeschnitten und verbrauchen dabei weniger Energie. NPUs werden zunehmend in Smartphones, Laptops und Edge-Geräten verbaut, um KI-Anwendungen lokal auszuführen.
Verwandt: Edge AI
OCR (Optical Character Recognition)
Automatische Erkennung und Extraktion von Text aus Bildern, Scans und Dokumenten. OCR ist die Grundlage für die Digitalisierung von Papierdokumenten und wird oft mit KI kombiniert, um auch handgeschriebene oder schlecht lesbare Texte zu erkennen.
Verwandt: Computer Vision
Ollama
Ein Open-Source-Tool, das es einfach macht, große Sprachmodelle lokal auf dem eigenen Computer zu betreiben. Mit einem einzigen Befehl kannst du Modelle wie Llama oder Mistral herunterladen und nutzen – ohne Cloud, ohne Datenweitergabe. Ollama ist besonders für Entwickler und datenschutzbewusste Nutzer interessant.
Verwandt: Llama
ONNX (Open Neural Network Exchange)
Ein offenes Dateiformat und Ökosystem für den Austausch von KI-Modellen zwischen verschiedenen Frameworks wie PyTorch und TensorFlow. ONNX ermöglicht es, ein Modell in einem Framework zu trainieren und in einem anderen zu deployen. Es ist ein wichtiger Standard für portable und interoperable KI-Anwendungen.
Verwandt: Modell-Deployment
Open Source KI
KI-Modelle und -Werkzeuge, deren Gewichte und oft auch Trainingsdetails öffentlich zugänglich gemacht werden. Open-Source-Modelle wie Llama oder Mistral können lokal betrieben, angepasst und in eigene Produkte integriert werden. Sie fördern Innovation, senken Einstiegshürden und reduzieren Abhängigkeiten von einzelnen Anbietern.
Verwandt: Llama
Orchestrierung
Die Koordination und Steuerung mehrerer KI-Agenten, Modelle oder Prozessschritte in einem übergeordneten System. Ein Orchestrator entscheidet, welcher Agent welche Aufgabe übernimmt, wie Ergebnisse weitergegeben werden und was bei Fehlern passiert. Frameworks wie LangChain oder AutoGen übernehmen diese Rolle oft automatisiert.
Verwandt: Multi-Agent System
Overfitting
Ein häufiges Problem beim Modelltraining: Das Modell lernt die Trainingsdaten so genau, dass es neue, unbekannte Daten schlechter verarbeitet. Overfitting entsteht oft bei zu wenigen Trainingsdaten oder zu langen Trainingsläufen. Gegenmittel sind mehr Daten, Regularisierung oder der Einsatz von Validierungsdaten zum frühzeitigen Stoppen.
Verwandt: Training / Trainingsdaten
Parameter
Die internen Zahlenwerte eines KI-Modells, die während des Trainings angepasst werden. Ein Modell mit mehr Parametern kann komplexere Muster erkennen, benötigt aber auch mehr Rechenleistung und Daten. Moderne große Sprachmodelle haben oft mehrere Milliarden Parameter.
Verwandt: Training / Trainingsdaten
Part-of-Speech Tagging
Das automatische Zuweisen von Wortarten (Substantiv, Verb, Adjektiv usw.) zu jedem Wort in einem Text. POS-Tagging ist ein grundlegender Schritt in der Sprachverarbeitung und hilft KI-Systemen, die grammatikalische Struktur von Sätzen zu verstehen.
Verwandt: Natural Language Processing (NLP)
PEFT (Parameter-Efficient Fine-Tuning)
Eine Sammlung von Methoden, um vortrainierte Modelle mit wenigen trainierbaren Parametern an neue Aufgaben anzupassen. Statt alle Milliarden Parameter zu verändern, werden nur kleine Adapter-Schichten trainiert — das spart erheblich Rechenkosten. LoRA ist die bekannteste PEFT-Methode.
Verwandt: Fine-Tuning
Perplexity
Ein KI-Unternehmen, das eine KI-gestützte Suchmaschine anbietet, die Fragen direkt mit Quellenangaben beantwortet statt nur Links zu liefern. Perplexity kombiniert Websuche mit Sprachmodellen und ist damit ein direkter Konkurrent zu klassischen Suchmaschinen.
Verwandt: Large Language Model (LLM)
Positional Encoding
Ein Mechanismus, der Transformer-Modellen mitteilt, an welcher Position im Text ein bestimmtes Wort steht. Da Transformer alle Tokens gleichzeitig verarbeiten, brauchen sie diese Positionsinformation explizit, um die Reihenfolge von Wörtern zu verstehen.
Verwandt: Transformer
Pre-Training
Die erste und aufwendigste Trainingsphase, bei der ein Modell auf riesigen Textmengen lernt, allgemeines Sprachverständnis aufzubauen. Pre-Training eines großen Sprachmodells dauert Wochen und kostet Millionen Euro — danach wird das Modell per Fine-Tuning auf spezifische Aufgaben spezialisiert.
Verwandt: Fine-Tuning
Precision
Eine Kennzahl, die misst, wie viele der positiv vorhergesagten Fälle tatsächlich positiv sind. Ein Spam-Filter mit hoher Precision markiert kaum legitime E-Mails als Spam. Precision wird oft zusammen mit Recall betrachtet, da die Optimierung des einen häufig auf Kosten des anderen geht.
Verwandt: Klassifikation
Predictive Analytics
Der Einsatz von KI und statistischen Methoden, um auf Basis historischer Daten Vorhersagen zu treffen. Predictive Analytics hilft Unternehmen zu antizipieren, welche Kunden abwandern könnten, wie hoch der Lagerbestand sein sollte oder wann eine Maschine wahrscheinlich ausfällt. Es ist eine der praktischsten und wertvollsten KI-Anwendungen im Unternehmenskontext.
Verwandt: Machine Learning
Predictive Maintenance
Der Einsatz von KI zur vorausschauenden Wartung von Maschinen und Anlagen. Sensordaten werden in Echtzeit analysiert, um Ausfälle vorherzusagen, bevor sie passieren — das vermeidet teure Produktionsstopps. Typische Anwendungen sind Produktionsanlagen, Fahrzeugflotten und Windkraftanlagen.
Verwandt: Predictive Analytics
Prompt
Die Anweisung oder Frage, die du an eine KI richtest, um eine Antwort zu erhalten. Die Qualität deines Prompts bestimmt maßgeblich die Qualität der KI-Antwort.
Verwandt: Prompt Engineering
Prompt Chaining
Eine Technik, bei der die Ausgabe eines Prompts als Eingabe für den nächsten Prompt dient. So lassen sich komplexe Aufgaben in überschaubare Schritte aufteilen und die Qualität jedes Teilschritts besser kontrollieren. Prompt Chaining ist ein Grundbaustein für KI-Agenten und automatisierte Workflows.
Verwandt: KI-Agent
Prompt Engineering
Die Kunst, Prompts so zu formulieren, dass die KI optimale Ergebnisse liefert. Gutes Prompt Engineering ist heute eine der wertvollsten praktischen KI-Fähigkeiten.
Verwandt: Prompt
Prompt-Injection
Ein Angriff, bei dem böswillige Anweisungen in einen Prompt eingeschleust werden, um das Verhalten einer KI zu manipulieren. Beispielsweise könnte ein Nutzer versteckte Befehle in einem Dokument platzieren, das die KI verarbeiten soll. Prompt-Injection ist eine der wichtigsten Sicherheitsbedrohungen für KI-Anwendungen.
Verwandt: Halluzination
Prompt-Template
Eine wiederverwendbare Vorlage für Prompts, in die variable Inhalte eingefügt werden. Statt jeden Prompt von Grund auf zu formulieren, definierst du einmal eine Struktur mit Platzhaltern. Prompt-Templates sind die Basis für konsistente, skalierbare KI-Anwendungen in Unternehmen.
Verwandt: Prompt Engineering
Provenienz
Die nachvollziehbare Herkunft und Entstehungsgeschichte von KI-Trainingsdaten und Modellergebnissen. Provenienz ist wichtig für Compliance, Audit-Anforderungen und die Überprüfung, ob ein Modell mit rechtmäßig erworbenen Daten trainiert wurde. Im Kontext des EU AI Acts wird Daten-Provenienz zunehmend zur Pflicht.
Verwandt: EU AI Act
Pruning
Eine Methode zur Modell-Komprimierung, bei der unwichtige Verbindungen oder Neuronen aus einem trainierten Netz entfernt werden. Pruning reduziert die Modellgröße und beschleunigt die Inferenz, ohne die Leistung stark zu verschlechtern. Es ist eine wichtige Technik, um KI-Modelle auf ressourcenbeschränkten Geräten einsetzbar zu machen.
Verwandt: Modell-Komprimierung
Q-Learning
Ein Algorithmus aus dem Bereich Reinforcement Learning, bei dem ein Agent lernt, in welchen Situationen welche Aktionen den größten langfristigen Nutzen bringen. Das "Q" steht für den Qualitätswert einer Aktion in einem bestimmten Zustand. Q-Learning ist die Grundlage vieler moderner RL-Ansätze und wurde z. B. beim Training von Spielagenten eingesetzt.
Verwandt: Reinforcement Learning
Quantisierung
Eine Technik zur Modell-Komprimierung, bei der die Zahlengenauigkeit der Modellparameter reduziert wird (z. B. von 32-Bit auf 8-Bit oder 4-Bit). Das spart Speicher und beschleunigt die Berechnung erheblich — mit meist minimalem Qualitätsverlust. Quantisierung ermöglicht es, große Modelle auf Consumer-Hardware oder Smartphones zu betreiben.
Verwandt: Modell-Komprimierung
RAG (Retrieval-Augmented Generation)
Eine Technik, bei der die KI externe Wissensquellen nutzt, um bessere Antworten zu geben. RAG reduziert Halluzinationen und ermöglicht es, KI mit aktuellem oder unternehmensinternem Wissen zu verbinden.
Verwandt: Halluzination
Random Forest
Ein Machine-Learning-Verfahren, das viele Entscheidungsbäume kombiniert und deren Ergebnisse zusammenführt. Durch diese Ensemble-Methode ist Random Forest robuster gegen Overfitting als einzelne Entscheidungsbäume und erzielt in der Praxis oft sehr gute Ergebnisse bei tabellarischen Daten.
Verwandt: Machine Learning
ReAct
Ein Prompting-Framework, bei dem ein KI-Modell abwechselnd nachdenkt (Reasoning) und handelt (Acting). Das Modell plant seinen nächsten Schritt, führt eine Aktion aus (z. B. eine Tool-Nutzung), beobachtet das Ergebnis und plant dann weiter. ReAct ist ein Standardansatz für zuverlässige KI-Agenten.
Verwandt: KI-Agent
Reasoning Model
Ein Sprachmodell, das vor seiner Antwort einen expliziten Denkprozess durchläuft — oft als "Chain of Thought" sichtbar. Modelle wie OpenAIs o1/o3 oder DeepSeek-R1 sind auf diesen schrittweisen Denkprozess hin trainiert und schneiden bei logischen, mathematischen und wissenschaftlichen Aufgaben deutlich besser ab als klassische Sprachmodelle.
Verwandt: Large Language Model (LLM)
Recall
Eine Kennzahl, die misst, wie viele der tatsächlich positiven Fälle das Modell auch als positiv erkannt hat. Ein Krebserkennungssystem sollte hohen Recall haben — lieber einen falsch-positiven Alarm als einen echten Fall zu übersehen. Recall wird zusammen mit Precision verwendet, um die Gesamtleistung eines Klassifikators zu bewerten.
Verwandt: Klassifikation
Red Teaming
Das systematische Testen von KI-Systemen durch ein Team, das versucht, Schwachstellen, unerwünschte Verhaltensweisen und Sicherheitslücken aufzudecken. Analog zu Penetrationstests in der IT-Sicherheit werden dabei gezielt Angriffe simuliert. Red Teaming ist ein wichtiger Bestandteil verantwortungsvoller KI-Entwicklung vor dem öffentlichen Release.
Verwandt: Bias (Verzerrung)
Regression
Ein Machine-Learning-Verfahren zur Vorhersage numerischer Werte — im Gegensatz zur Klassifikation, die Kategorien vorhersagt. Typische Anwendungen sind Preisprognosen, Umsatzvorhersagen oder die Schätzung von Lieferzeiten. Lineare Regression ist das einfachste Beispiel, aber es gibt auch komplexe neuronale Regressionsmodelle.
Verwandt: Supervised Learning
Regularisierung
Techniken, die verhindern, dass ein Modell die Trainingsdaten auswendig lernt (Overfitting), indem die Modellkomplexität eingeschränkt wird. Gängige Methoden sind L1/L2-Regularisierung (Bestrafung großer Gewichte) und Dropout. Regularisierung verbessert die Generalisierungsfähigkeit des Modells auf unbekannte Daten.
Verwandt: Training / Trainingsdaten
Reinforcement Learning
Eine Lernmethode, bei der eine KI durch Belohnung und Bestrafung lernt – ähnlich wie ein Kind, das lernt, Fahrrad zu fahren. Die KI probiert verschiedene Aktionen aus und optimiert ihr Verhalten, um eine maximale Belohnung zu erzielen. Reinforcement Learning wird eingesetzt für Spielstrategien (AlphaGo), Robotik und das Training von Sprachmodellen (RLHF).
Verwandt: Machine Learning
ReLU
Eine der meistgenutzten Aktivierungsfunktionen in neuronalen Netzen: Negative Eingabewerte werden auf null gesetzt, positive bleiben unverändert. Diese einfache Funktion ermöglicht es neuronalen Netzen, nicht-lineare Zusammenhänge zu lernen, und ist effizienter zu berechnen als ältere Funktionen wie Sigmoid.
Verwandt: Neuronales Netz
Responsible AI
Ein Rahmenwerk und eine Praxis, die sicherstellt, dass KI-Systeme ethisch, fair, transparent und im Einklang mit gesellschaftlichen Werten entwickelt und eingesetzt werden. Responsible AI umfasst Themen wie Bias-Vermeidung, Erklärbarkeit, Datenschutz und Rechenschaftspflicht. Es ist zunehmend auch eine regulatorische Anforderung, etwa durch den EU AI Act.
Verwandt: EU AI Act
Reward Model
Ein speziell trainiertes Modell, das bewertet, wie gut eine KI-Ausgabe ist — und damit als Signal für Reinforcement Learning dient. Beim RLHF-Training bewerten Menschen zunächst Antwortpaare, woraus ein Reward Model trainiert wird. Dieses Reward Model ersetzt dann die menschliche Bewertung für alle weiteren Trainingsiterationen.
RLAIF
Reinforcement Learning from AI Feedback — eine Variante von RLHF, bei der KI-Modelle statt menschlicher Bewerter das Feedback geben. Das skaliert deutlich besser als menschliches Feedback und wird eingesetzt, wenn menschliche Bewertung zu teuer oder zu langsam ist. RLAIF birgt jedoch das Risiko, die Präferenzen des bewertenden Modells zu verstärken statt menschliche Werte.
RLHF (Reinforcement Learning from Human Feedback)
Eine Trainingsmethode, bei der Menschen KI-Antworten bewerten und das Modell dadurch lernt, menschliche Präferenzen besser zu erfüllen. RLHF ist der Schlüsselmechanismus hinter dem hilfreichen und sicheren Verhalten von ChatGPT und Claude. Ohne RLHF wären Sprachmodelle zwar sprachlich fähig, aber schwerer zu kontrollieren.
Verwandt: Reinforcement Learning
RNN (Recurrent Neural Network)
Eine Netzwerkarchitektur, die Sequenzen verarbeitet, indem sie Informationen über einen internen Zustand von Schritt zu Schritt weitergibt. RNNs waren vor der Transformer-Ära der Standard für Sprachverarbeitung und Zeitreihendaten. Sie leiden jedoch unter dem Problem verschwindender Gradienten und wurden für die meisten Anwendungen durch Transformer ersetzt.
Verwandt: Transformer
Robo-Advisor
Eine automatisierte Anlageberatungsplattform, die KI nutzt, um auf Basis von Risikobereitschaft und Anlagezielen personalisierte Portfolios zu erstellen und zu verwalten. Bekannte Beispiele sind Scalable Capital und Quirion. Robo-Advisor sind günstiger als traditionelle Vermögensverwalter und ab kleinen Anlagebeträgen nutzbar.
Verwandt: Predictive Analytics
Robustheit
Die Fähigkeit eines KI-Modells, auch bei unerwarteten, verrauschten oder leicht veränderten Eingaben zuverlässige Ergebnisse zu liefern. Ein robustes Modell lässt sich nicht durch kleine Störungen (z. B. Tippfehler, leicht veränderte Bilder) täuschen. Robustheit ist besonders kritisch in sicherheitsrelevanten Anwendungen wie medizinischer Diagnostik oder autonomem Fahren.
Verwandt: Bias (Verzerrung)
Role Prompting
Eine Prompt-Engineering-Technik, bei der der KI eine bestimmte Rolle zugewiesen wird ("Du bist ein erfahrener Steuerberater..."). Das beeinflusst Ton, Perspektive und Tiefe der Antworten. Role Prompting ist einfach umzusetzen und oft überraschend wirksam zur Verbesserung von Antwortqualität.
Verwandt: Prompt Engineering
Sampling
Der Prozess, mit dem ein Sprachmodell das nächste Wort (Token) aus einer Wahrscheinlichkeitsverteilung auswählt. Statt immer das wahrscheinlichste Token zu wählen (Greedy Decoding), führt Sampling zu abwechslungsreicheren Texten. Parameter wie Temperatur, Top-K und Top-P steuern, wie kreativ oder konservativ das Sampling ist.
Verwandt: Large Language Model (LLM)
Scaling Laws
Empirisch beobachtete Gesetzmäßigkeiten, die beschreiben, wie die Leistung von KI-Modellen mit der Menge an Parametern, Trainingsdaten und Rechenleistung skaliert. Scaling Laws haben die Entwicklung großer Sprachmodelle geprägt, da sie vorhersagen, dass größere Modelle mit mehr Daten systematisch besser werden. Forscher nutzen sie, um Trainingskosten zu optimieren.
Verwandt: Foundation Model
Self-Attention
Der Kernmechanismus im Transformer, bei dem jedes Wort im Text auf alle anderen Wörter "achtet" und deren Relevanz gewichtet. Self-Attention ermöglicht es Modellen, Bezüge zwischen weit entfernten Wörtern im Text zu verstehen. Die parallele Verarbeitung aller Tokens macht Transformer deutlich effizienter trainierbar als RNNs.
Verwandt: Attention
Self-Consistency
Eine Technik, bei der dasselbe Problem mehrfach mit Sampling gelöst und dann die häufigste Antwort gewählt wird. Self-Consistency verbessert die Zuverlässigkeit bei Reasoning-Aufgaben deutlich, ist aber rechenintensiver als ein einzelner Durchlauf. Es ist eine Form des Ensemble-Ansatzes speziell für Sprachmodelle.
Verwandt: Sampling
Self-Supervised Learning
Eine Lernmethode, bei der die KI ihre eigenen Lernziele aus ungelabelten Daten ableitet — zum Beispiel, indem sie lernt, das nächste Wort in einem Text vorherzusagen. Self-Supervised Learning ist der Grund, warum große Sprachmodelle mit riesigen Mengen an Rohtexten trainiert werden können, ohne teure manuelle Beschriftung.
Verwandt: Supervised Learning
Semantische Ähnlichkeit
Ein Maß dafür, wie ähnlich zwei Texte inhaltlich sind — unabhängig von den genauen verwendeten Wörtern. Semantische Ähnlichkeit wird berechnet, indem Texte in Embeddings umgewandelt und deren Abstand im Vektorraum gemessen wird. Sie ist die Grundlage für semantische Suche, Duplikaterkennung und Empfehlungssysteme.
Verwandt: Embedding
Semantische Suche
Eine Suchmethode, die die inhaltliche Bedeutung einer Anfrage versteht statt nur nach Stichwörtern zu suchen. Eine semantische Suche nach "günstiges Hotel am Meer" findet auch Ergebnisse mit "preiswerte Unterkunft an der Küste". Sie basiert auf Embeddings und Vektordatenbanken und ist deutlich leistungsfähiger als klassische Volltextsuche.
Verwandt: Vektordatenbank
Semi-Supervised Learning
Eine Lernmethode, die wenige gelabelte Daten mit vielen ungelabelten kombiniert. In der Praxis sind gelabelte Trainingsdaten teuer und knapp — Semi-Supervised Learning nutzt die Struktur ungelabelter Daten, um mit weniger Annotations-Aufwand gute Modelle zu trainieren.
Verwandt: Supervised Learning
Sentiment-Analyse
Die automatische Erkennung von Meinungen, Stimmungen und Einstellungen in Texten. Typische Anwendungen sind die Auswertung von Kundenbewertungen, Social-Media-Monitoring und die Analyse von Feedback-Formularen. Moderne Sentiment-Analysen gehen über simpel positiv/negativ hinaus und erkennen auch Aspekte und Emotionsgruppen.
Verwandt: Natural Language Processing (NLP)
Sequence-to-Sequence (Seq2Seq)
Eine Modellarchitektur, die eine Eingabesequenz in eine Ausgabesequenz umwandelt — ideal für Übersetzung, Zusammenfassung und Konversationssysteme. Seq2Seq-Modelle bestehen aus einem Encoder, der die Eingabe versteht, und einem Decoder, der die Ausgabe generiert. Diese Architektur war ein Vorläufer moderner Transformer-Modelle.
Verwandt: Transformer
Skalierung
Die Erhöhung der Modellgröße, Datenmenge oder Rechenleistung, um bessere KI-Leistung zu erzielen. Skalierung ist das zentrale Entwicklungsparadigma moderner KI — mehr Parameter und mehr Daten führen empirisch zu besseren Modellen. Die Kosten und der Energieverbrauch skalieren jedoch ebenfalls stark mit.
Verwandt: Foundation Model
Skip Connection
Eine direkte Verbindung in neuronalen Netzen, die Schichten überspringt und Informationen ungefiltert weiterleitet. Skip Connections lösen das Problem verschwindender Gradienten bei sehr tiefen Netzen und sind der Schlüssel zur Architektur von ResNets. Auch Transformer nutzen Skip Connections, um das Training stabiler zu machen.
Verwandt: Neuronales Netz
Softmax
Eine mathematische Funktion, die einen Vektor von Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt, die sich auf 1 summiert. Softmax wird in der letzten Schicht von Klassifikationsmodellen und bei der Token-Auswahl in Sprachmodellen verwendet. Sie bestimmt, wie sicher sich das Modell bei seiner Vorhersage ist.
Verwandt: Sampling
Sora
OpenAIs Text-to-Video-Modell, das aus Textbeschreibungen realistische und kreative Videos generiert. Sora wurde Anfang 2024 vorgestellt und zeigt beeindruckende Fähigkeiten bei physikalisch plausiblen Szenen. Es markiert einen Durchbruch in der generativen Video-KI, auch wenn kommerzielle Verfügbarkeit noch eingeschränkt ist.
Verwandt: Generative KI
Spracherkennung (ASR)
Die automatische Umwandlung gesprochener Sprache in Text. Automatic Speech Recognition (ASR) wird in Sprachassistenten, Transkriptionssoftware und barrierefreien Interfaces eingesetzt. Moderne ASR-Systeme wie Whisper erreichen menschliche Genauigkeit und unterstützen viele Sprachen.
Verwandt: Natural Language Processing (NLP)
Sprachmodell
Ein KI-Modell, das die statistische Struktur von Sprache erlernt und Text generieren oder vervollständigen kann. Sprachmodelle sind die Grundlage von Chatbots, Textzusammenfassungen und KI-Schreibassistenten. Große Sprachmodelle (LLMs) wie GPT-4 oder Claude haben diesen Ansatz auf ein neues Niveau gehoben.
Verwandt: Large Language Model (LLM)
Stable Diffusion
Ein Open-Source-Bildgenerierungsmodell, das auf der Diffusion-Technologie basiert und lokal auf eigener Hardware betrieben werden kann. Im Gegensatz zu proprietären Diensten wie DALL-E ist Stable Diffusion frei verfügbar und stark anpassbar. Es hat eine große Community von Entwicklern und Künstlern hervorgebracht, die das Modell für vielfältige Zwecke einsetzen.
Verwandt: Diffusion Model
Stemming
Die algorithmische Reduzierung eines Wortes auf seinen Wortstamm, indem Endungen abgeschnitten werden. "laufend", "gelaufen" und "Läufer" werden so auf "lauf" zurückgeführt. Stemming ist ein einfaches NLP-Vorverarbeitungsverfahren, das die Trefferquote bei Stichwortsuchen verbessert, aber weniger präzise ist als Lemmatisierung.
Verwandt: Natural Language Processing (NLP)
Structured Output
Die Fähigkeit eines Sprachmodells, seine Antworten in einem vordefinierten Format wie JSON oder XML zu liefern. Structured Output ist entscheidend für die zuverlässige Integration von KI in Software-Systeme, da maschinenlesbare Ausgaben direkt weiterverarbeitet werden können. Moderne Modelle wie GPT-4 unterstützen Structured Output nativ über API-Parameter.
Verwandt: API
Supervised Learning
Maschinelles Lernen mit gelabelten Trainingsdaten – die KI lernt aus Beispielen mit bekannten Ergebnissen. Zum Beispiel: Bilder von Katzen und Hunden mit der richtigen Beschriftung.
Verwandt: Unsupervised Learning
Synthetic Data
Künstlich generierte Daten, die echte Daten simulieren, ohne echte Personen oder vertrauliche Informationen zu enthalten. Synthetic Data wird eingesetzt, wenn echte Daten knapp, teuer oder datenschutzrechtlich problematisch sind. Moderne KI-Modelle können qualitativ hochwertige synthetische Datensätze erzeugen, die für das Training anderer Modelle geeignet sind.
Verwandt: Training / Trainingsdaten
System-Prompt
Eine versteckte Anweisung, die an das Sprachmodell übergeben wird, bevor der Nutzer mit ihm interagiert. System-Prompts definieren die Persönlichkeit, den Kontext und die Einschränkungen des KI-Assistenten — z. B. "Du bist ein Kundenservice-Bot für Firma X und beantwortest nur Fragen zu unseren Produkten". Nutzer sehen den System-Prompt normalerweise nicht.
Verwandt: Prompt
Temperatur
Ein Parameter, der steuert, wie kreativ oder deterministisch ein Sprachmodell antwortet. Bei niedriger Temperatur (nahe 0) wählt das Modell fast immer das wahrscheinlichste nächste Wort und wird vorhersehbar. Bei hoher Temperatur werden auch unwahrscheinlichere Wörter gewählt — die Antworten werden kreativer, aber auch weniger zuverlässig.
Verwandt: Sampling
Text-to-Image
KI-Systeme, die aus Textbeschreibungen Bilder generieren. Midjourney, DALL-E und Stable Diffusion sind die bekanntesten Vertreter. Text-to-Image-Modelle basieren meist auf Diffusion-Technologie und haben die kreative Bildproduktion demokratisiert, stellen aber auch neue Fragen zu Urheberrecht und Desinformation.
Verwandt: Diffusion Model
Text-to-Speech (TTS)
Die automatische Umwandlung von Text in gesprochene Sprache. Moderne TTS-Systeme wie ElevenLabs oder OpenAI TTS klingen kaum noch von menschlichen Stimmen zu unterscheiden und können verschiedene Stimmen, Emotionen und Sprachstile imitieren. TTS wird für Barrierefreiheit, Sprachassistenten und Audiobook-Produktion eingesetzt.
Verwandt: Natural Language Processing (NLP)
Text-to-Video
KI-Systeme, die aus Textbeschreibungen Videos generieren. Neben Sora (OpenAI) gibt es Runway, Pika und andere Anbieter. Text-to-Video ist noch junger als Text-to-Image und hat bei langen, physikalisch kohärenten Videos noch Schwächen — entwickelt sich aber rasant.
Verwandt: Generative KI
Textklassifikation
Die automatische Zuordnung von Texten zu vordefinierten Kategorien. Typische Anwendungen sind Spam-Erkennung, Sentiment-Analyse, Themen-Tagging und die Klassifikation von Support-Tickets. Textklassifikation ist eine der häufigsten NLP-Aufgaben in Unternehmen.
Verwandt: Klassifikation
TF-IDF
Ein klassisches Verfahren aus dem Information Retrieval, das die Wichtigkeit eines Worts in einem Dokument relativ zu einer Dokumentensammlung berechnet. Häufige Wörter in einem Dokument, die in anderen Dokumenten selten vorkommen, erhalten hohe Werte. TF-IDF war der Standard für Textsuche vor dem Aufkommen von Embeddings und ist bei kleinen Datenmengen immer noch nützlich.
Verwandt: Embedding
Themenmodellierung
Eine unüberwachte Methode zur automatischen Entdeckung latenter Themen in einer Textsammlung. Algorithmen wie LDA oder neuere Embedding-basierte Ansätze gruppieren Dokumente nach inhaltlichen Schwerpunkten, ohne dass die Themen vorher bekannt sein müssen. Themenmodellierung wird für die Analyse großer Dokumentenbestände, Marktforschung und Content-Strategie eingesetzt.
Verwandt: Clustering
Token
Die kleinste Einheit, in die ein Text für die KI-Verarbeitung zerlegt wird (ungefähr ein Wort oder Wortteil). Bei ChatGPT kostet jede Anfrage eine bestimmte Anzahl Tokens – das ist die Basis für die Preisgestaltung. Ein einfacher Text von 1.000 Wörtern entspricht etwa 1.300 bis 1.500 Tokens.
Verwandt: Large Language Model (LLM)
Tokenisierung
Der Prozess, bei dem ein Text in einzelne Tokens aufgeteilt wird, bevor er von einem Sprachmodell verarbeitet werden kann. Tokenisierer wie BPE (Byte-Pair Encoding) zerlegen Text in häufige Zeichenfolgen — "unglaublich" könnte z. B. in "un", "glaub", "lich" aufgeteilt werden. Die Art der Tokenisierung beeinflusst, wie gut ein Modell mit bestimmten Sprachen oder Fachvokabular umgehen kann.
Verwandt: Token
Tool Use
Die Fähigkeit eines KI-Modells, externe Werkzeuge wie Websuche, Taschenrechner, Kalender oder APIs aufzurufen. Tool Use ermöglicht es Sprachmodellen, über ihre trainierten Kenntnisse hinauszugehen und aktuelle Informationen abzurufen oder Berechnungen zuverlässig durchzuführen. Es ist ein Kernbaustein für KI-Agenten.
Verwandt: KI-Agent
Top-K Sampling
Eine Sampling-Strategie, bei der das nächste Token nur aus den K wahrscheinlichsten Kandidaten ausgewählt wird. Mit K=50 wählt das Modell aus den 50 plausibelsten nächsten Wörtern aus. Top-K Sampling verhindert, dass sehr unwahrscheinliche Tokens ausgewählt werden, ohne die Kreativität zu stark einzuschränken.
Verwandt: Sampling
Top-P / Nucleus Sampling
Eine adaptive Sampling-Strategie, bei der aus dem kleinsten Set von Tokens gewählt wird, dessen kumulative Wahrscheinlichkeit P übersteigt. Bei P=0,9 werden die wahrscheinlichsten Tokens ausgewählt, die zusammen 90% der Wahrscheinlichkeit abdecken. Top-P passt sich dynamisch an — bei sicheren Vorhersagen werden weniger Kandidaten berücksichtigt als bei unsicheren.
Verwandt: Sampling
TPU
Tensor Processing Unit — von Google entwickelter Spezialchip für KI-Berechnungen. TPUs sind für Matrix-Multiplikationen optimiert, die das Herzstück von Deep-Learning-Operationen bilden. Sie sind in Google Cloud verfügbar und wurden für das Training von Googles eigenen Modellen wie Gemini eingesetzt.
Verwandt: GPU
Training / Trainingsdaten
Training ist der Prozess, bei dem eine KI aus Daten lernt und ihre Parameter anpasst. Trainingsdaten sind die Beispiele, aus denen die KI lernt – ihre Qualität und Vielfalt bestimmen maßgeblich, wie gut das fertige Modell ist. Das Training großer KI-Modelle dauert Wochen und verbraucht enorme Rechnerkapazitäten.
Verwandt: Fine-Tuning
Trainingsdaten-Vergiftung
Ein Angriff, bei dem böswillige Daten gezielt in den Trainingsdatensatz eingeschleust werden, um das Verhalten eines KI-Modells zu manipulieren. Dadurch kann ein Angreifer ein Modell dazu bringen, in bestimmten Situationen falsch oder gefährlich zu reagieren. Trainingsdaten-Vergiftung ist besonders schwer zu erkennen, da die Schwachstelle im Modell selbst steckt.
Verwandt: Bias (Verzerrung)
Transfer Learning
Eine Methode, bei der ein auf einer Aufgabe vortrainiertes Modell für eine andere, verwandte Aufgabe weiterverwendet wird. Statt von Grund auf zu trainieren, wird das vorhandene Wissen übertragen und feinabgestimmt — das spart enorm viel Zeit und Daten. Transfer Learning ist der Grund, warum Fine-Tuning von Basismodellen so effektiv ist.
Verwandt: Fine-Tuning
Transformer
Die Architektur hinter modernen Sprachmodellen wie GPT und Claude. Transformer sind besonders gut darin, Kontext und Bedeutung in Texten zu verstehen – der Durchbruch kam 2017 mit dem Paper "Attention is All You Need".
Verwandt: Large Language Model (LLM)
Underfitting
Der gegenteilige Fehler zu Overfitting: Das Modell ist zu einfach, um die Muster in den Trainingsdaten zu erfassen, und macht sowohl auf Trainings- als auch auf Testdaten viele Fehler. Underfitting entsteht oft durch zu wenig Trainingszeit, zu geringe Modellkomplexität oder ungenügend relevante Features. Die Lösung ist meist ein komplexeres Modell oder mehr Training.
Verwandt: Training / Trainingsdaten
Unsupervised Learning
Maschinelles Lernen ohne gelabelte Daten – die KI findet selbstständig Muster. Zum Beispiel: Kundensegmentierung, bei der die KI selbst Gruppen ähnlicher Kunden erkennt.
Verwandt: Supervised Learning
VAE (Variational Autoencoder)
Eine Generativmodell-Architektur, die Daten in einen komprimierten latenten Raum kodiert und daraus neue Variationen erzeugen kann. Im Gegensatz zu einfachen Autoencodern hat der latente Raum beim VAE eine probabilistische Struktur, die kontrollierte Generierung ermöglicht. VAEs sind Vorläufer moderner Diffusionsmodelle und werden für Bildgenerierung und Daten-Augmentierung eingesetzt.
Verwandt: GAN (Generative Adversarial Network)
Vektor
Eine Liste von Zahlen, die einen Datenpunkt im mehrdimensionalen Raum repräsentiert. In der KI werden Texte, Bilder und andere Daten in Vektoren (Embeddings) umgewandelt, damit mathematische Operationen darauf angewendet werden können. Ähnliche Inhalte haben ähnliche Vektoren — das ist die Grundlage für semantische Suche.
Verwandt: Embedding
Vektordatenbank
Eine spezialisierte Datenbank, die Embeddings speichert und blitzschnell ähnliche Einträge findet. Vektordatenbanken sind die technische Grundlage für RAG-Systeme und semantische Suche in Unternehmen. Pinecone, Weaviate und Qdrant sind bekannte Anbieter; auch klassische Datenbanken wie PostgreSQL bieten mittlerweile Vektorsuchfunktionen.
Verwandt: RAG (Retrieval-Augmented Generation)
Vektorraum
Der mehrdimensionale mathematische Raum, in dem Embeddings verortet sind. Im Vektorraum eines Sprachmodells liegen semantisch ähnliche Konzepte nah beieinander — "König" minus "Mann" plus "Frau" ergibt annähernd "Königin". Die Geometrie des Vektorraums kodiert semantische Beziehungen zwischen Konzepten.
Verwandt: Embedding
Verlustfunktion
Eine mathematische Funktion, die misst, wie weit die Vorhersagen eines Modells von den tatsächlichen Zielwerten entfernt sind. Während des Trainings versucht das Modell, diesen Verlust zu minimieren. Die Wahl der richtigen Verlustfunktion ist entscheidend — Cross-Entropy wird für Klassifikation verwendet, Mean Squared Error für Regression.
Verwandt: Training / Trainingsdaten
Vibe Coding
Ein informeller Begriff für die Praxis, KI-Assistenten wie Copilot oder Claude zum Programmieren zu verwenden, ohne jeden Codezeile vollständig zu verstehen. Der Begriff wurde 2025 von Andrej Karpathy geprägt und beschreibt einen Paradigmenwechsel: Entwickler beschreiben, was sie wollen, und die KI generiert den Code. Kritiker warnen vor technischen Schulden und Sicherheitslücken in KI-generiertem Code.
Verwandt: Generative KI
Vision Language Model (VLM)
Ein multimodales Modell, das sowohl Bilder als auch Text versteht und kombiniert verarbeiten kann. VLMs können Bilder beschreiben, Fragen über Bilder beantworten oder Text und Bild gemeinsam analysieren. Bekannte Beispiele sind GPT-4V, Gemini und Claude — sie ermöglichen Anwendungen wie die Analyse von Dokumenten mit gemischten Bild-Text-Inhalten.
Verwandt: Computer Vision
VRAM
Video Random Access Memory — der Arbeitsspeicher einer Grafikkarte (GPU), der für KI-Berechnungen genutzt wird. VRAM ist der kritische Engpass beim lokalen Betrieb großer KI-Modelle: Ein 7-Milliarden-Parameter-Modell benötigt je nach Quantisierung 4–14 GB VRAM. Consumer-GPUs haben 8–24 GB VRAM; für das Training großer Modelle werden GPUs mit 40–80 GB VRAM verwendet.
Verwandt: GPU
Wasserzeichen (KI)
Technische Methoden, um KI-generierte Inhalte unsichtbar zu markieren und später als KI-generiert identifizierbar zu machen. Für Texte werden bestimmte Token-Muster eingebettet, für Bilder unsichtbare Pixel-Muster. Wasserzeichen sollen bei der Bekämpfung von Desinformation und der Kennzeichnungspflicht nach dem EU AI Act helfen, sind aber noch nicht vollständig manipulationssicher.
Verwandt: EU AI Act
Whisper
OpenAIs Open-Source-Spracherkennungsmodell, das Sprache in über 90 Sprachen transkribiert und übersetzt. Whisper ist bekannt für seine hohe Genauigkeit auch bei Hintergrundgeräuschen und Akzenten und kann lokal betrieben werden. Es ist die technische Grundlage vieler Transkriptions- und Untertitelgenerierungs-Dienste.
Verwandt: Natural Language Processing (NLP)
Word2Vec
Ein einflussreiches Embedding-Verfahren aus dem Jahr 2013, das Wörter in Vektoren umwandelt und semantische Beziehungen im Vektorraum kodiert. Word2Vec zeigte erstmals beeindruckend, dass Sprachstruktur geometrisch abgebildet werden kann. Es ist heute von moderneren Embedding-Modellen abgelöst worden, hat aber das Feld grundlegend geprägt.
Verwandt: Embedding
Zero-Shot Prompting
Das Stellen einer Aufgabe an ein KI-Modell, ohne Beispiele mitzuliefern — die KI soll die Aufgabe allein aus der Beschreibung verstehen. Große Sprachmodelle beherrschen Zero-Shot-Prompting erstaunlich gut, da sie während des Trainings unzählige Aufgabentypen gesehen haben. Im Vergleich dazu liefert Few-Shot Prompting mit einigen Beispielen oft noch bessere Ergebnisse.
Verwandt: Prompt Engineering
Zusammenfassung
Eine der häufigsten und wertvollsten KI-Anwendungen: das automatische Verdichten langer Texte auf die wesentlichen Kernaussagen. Moderne Sprachmodelle können Artikel, Berichte, Meeting-Protokolle und juristische Dokumente in Sekunden zusammenfassen. Qualität und Treue zur Quelle variieren je nach Modell — Halluzinationen können bei Zusammenfassungen kritisch sein.
Verwandt: Large Language Model (LLM)
Dieses Glossar als PDF speichern
Alle 244 Begriffe in einer druckoptimierten Version – zum Offline-Nachschlagen.
Ein Begriff fehlt?
Das Glossar wächst ständig. Wenn du einen Begriff vermisst, schreib uns – wir nehmen ihn auf.
Begriff vorschlagen