Zum Inhalt springen

KI-Glossar

Du stolperst über KI-Begriffe und weißt nicht, was sie bedeuten? Hier findest du klare Erklärungen – ohne Fachjargon, auf Deutsch.

244 Begriffe
A

A/B-Testing

Eine Methode, bei der zwei Varianten eines Systems oder einer Anwendung gleichzeitig getestet werden, um herauszufinden, welche besser funktioniert. Im KI-Kontext vergleichst du damit z.B. zwei verschiedene Modelle, Prompts oder Empfehlungsalgorithmen anhand realer Nutzerdaten.

Verwandt: Benchmark

Accuracy

Ein grundlegendes Gütemaß für KI-Modelle, das angibt, wie viele Vorhersagen insgesamt korrekt waren. Bei unausgewogenen Datensätzen – z.B. wenn 99 % der Fälle negativ sind – kann eine hohe Accuracy trotzdem ein schlechtes Modell verbergen.

Verwandt: F1-Score

Active Learning

Ein Trainingsansatz, bei dem das Modell aktiv die Datenpunkte auswählt, bei denen es sich am unsichersten ist, und einen Menschen um eine Einschätzung bittet. So erreichst du mit weniger gelabelten Daten eine höhere Modellqualität.

Verwandt: Datenlabeling

Adversarial Attack

Ein gezielter Angriff, bei dem minimale, oft für Menschen unsichtbare Veränderungen an Eingabedaten ein KI-Modell zur falschen Vorhersage bringen. Ein klassisches Beispiel: ein leicht verändertes Bild, das eine KI als "Toaster" klassifiziert, obwohl es eindeutig ein Panda ist.

Verwandt: Black Box

Agentic AI

KI-Systeme, die nicht nur auf einzelne Anfragen reagieren, sondern eigenständig Ziele verfolgen, Aufgaben planen und Werkzeuge einsetzen. Agentic AI kombiniert ein Sprachmodell mit der Fähigkeit, Aktionen in der realen Welt auszuführen – z.B. Dateien bearbeiten, APIs aufrufen oder Browser steuern.

Verwandt: KI-Agent

Agentic Workflow

Ein automatisierter Arbeitsablauf, in dem KI-Agenten mehrere Schritte eigenständig planen und ausführen, oft mit Rückkopplungsschleifen. Statt eines einzelnen Prompts durchläuft der Agent Phasen wie Recherche, Planung, Ausführung und Selbstkorrektur.

Verwandt: Agentic AI

AGI

Artificial General Intelligence – eine hypothetische KI, die menschliche kognitive Fähigkeiten in allen Bereichen erreicht oder übertrifft. Aktuelle KI-Systeme sind sogenannte "Narrow AI" und beherrschen nur spezifische Aufgaben. Wann und ob AGI erreichbar ist, bleibt in der Wissenschaft stark umstritten.

Verwandt: AI Alignment

AI Alignment

Die Forschungsdisziplin, die sicherstellen soll, dass KI-Systeme das tun, was Menschen wirklich beabsichtigen – auch bei steigender Autonomie und Intelligenz. Misalignment entsteht, wenn ein System sein Trainingsziel optimiert, aber dabei unerwünschte Nebeneffekte erzeugt.

Verwandt: AGI

AI PC

Ein PC oder Laptop mit dedizierter NPU (Neural Processing Unit), die KI-Aufgaben energieeffizient direkt auf dem Gerät ausführt. Microsoft Copilot+ PCs und Apples M-Chips sind bekannte Beispiele. Der Trend ermöglicht lokale KI-Inferenz ohne Cloud-Verbindung.

Verwandt: Edge AI

AI Slop

Umgangssprachlicher Begriff für massenhaft generierte, qualitativ minderwertige KI-Inhalte – Texte, Bilder oder Videos ohne erkennbaren redaktionellen Mehrwert. Das Phänomen tritt auf, wenn Inhalte ohne menschliche Kurierung automatisch veröffentlicht werden und das Internet mit Standardformulierungen überschwemmen.

Verwandt: Generative KI

Aktivierungsfunktion

Eine mathematische Funktion in neuronalen Netzen, die entscheidet, ob und wie stark ein Neuron "feuert". Ohne Aktivierungsfunktionen wären neuronale Netze nur lineare Gleichungssysteme – sie ermöglichen erst das Lernen komplexer, nichtlinearer Zusammenhänge. Bekannte Beispiele sind ReLU und Sigmoid.

Verwandt: Neuronales Netz

Algorithmus

Ein Satz von Regeln, die ein Computer Schritt für Schritt befolgt, um eine Aufgabe zu lösen. Algorithmen sind das Herzstück jeder Software – von der Suchmaschine bis zur KI.

Anomalie-Erkennung

KI-Verfahren, das ungewöhnliche Muster in Daten identifiziert, die von der Norm abweichen. Typische Anwendungen sind Betrugserkennung bei Zahlungen, Fehlerfrüherkennung in Maschinen und Netzwerksicherheit. Das System lernt dabei, was "normal" ist, und schlägt Alarm bei Abweichungen.

Verwandt: Machine Learning

API

Eine Schnittstelle (Application Programming Interface), über die Programme miteinander kommunizieren können. Wenn du ChatGPT in deine App einbindest, nutzt du die OpenAI-API.

Approximate Nearest Neighbor

Ein Algorithmus, der bei der Vektorsuche nicht das exakt ähnlichste Element sucht, sondern sehr schnell einen nahezu optimalen Treffer liefert. Bei Millionen von Vektoren ist exakte Suche zu langsam – ANN-Methoden wie HNSW oder FAISS machen semantische Suche in Echtzeit möglich.

Verwandt: FAISS

Attention

Ein Mechanismus in neuronalen Netzen, der es dem Modell ermöglicht, beim Verarbeiten eines Tokens die relevantesten anderen Tokens im Kontext gezielt zu gewichten. Attention ist das Herzstück der Transformer-Architektur und erklärt, warum moderne Sprachmodelle lange Zusammenhänge verstehen können.

Verwandt: Transformer

Autoencoder

Eine Netzwerkarchitektur, die Daten in eine kompakte Darstellung (Latent Space) komprimiert und anschließend wieder rekonstruiert. Autoencoder werden für Datenkompression, Rauschunterdrückung und als Grundlage für generative Modelle eingesetzt.

Verwandt: Diffusion Model

Automatisierung

Der Einsatz von Technologie, um wiederkehrende Aufgaben ohne menschliches Eingreifen auszuführen. KI bringt Automatisierung auf ein neues Niveau: Statt starrer Regeln können KI-gestützte Systeme auch unstrukturierte Aufgaben wie das Lesen von E-Mails, das Erstellen von Berichten oder das Beantworten von Kundenanfragen übernehmen.

Verwandt: KI-Agent

AutoML

Automatisiertes Machine Learning – Werkzeuge, die den gesamten Prozess der Modellauswahl, Hyperparameter-Optimierung und Feature-Auswahl automatisieren. AutoML senkt die Einstiegshürde für KI-Projekte und ermöglicht auch Nicht-Experten, leistungsfähige Modelle zu erstellen.

Verwandt: Feature Engineering

Autonomer Agent

Ein KI-System, das eigenständig Entscheidungen trifft und Aktionen ausführt, um ein vorgegebenes Ziel zu erreichen – ohne bei jedem Schritt menschliche Eingabe zu benötigen. Autonome Agenten kombinieren Wahrnehmung, Planung und Ausführung in einem kontinuierlichen Regelkreis.

Verwandt: Agentic AI

Autoregressive Generation

Ein Verfahren zur Textgenerierung, bei dem ein Modell Token für Token erzeugt – jeder neue Token basiert auf allen vorherigen. Alle gängigen Sprachmodelle wie GPT oder Claude nutzen dieses Prinzip. Es erklärt, warum LLMs Text nicht rückwärts korrigieren können.

Verwandt: Large Language Model (LLM)

B

Backpropagation

Der Kernalgorithmus, mit dem neuronale Netze trainiert werden. Nach einer Vorhersage berechnet Backpropagation, wie stark jeder Parameter zum Fehler beigetragen hat, und passt die Gewichte entsprechend an. Ohne Backpropagation wäre modernes Deep Learning nicht möglich.

Verwandt: Gradient Descent

Batch

Eine Gruppe von Datenpunkten, die gleichzeitig für einen Trainingsschritt verwendet werden. Die Batch-Größe beeinflusst Trainingsgeschwindigkeit, Speicherbedarf und die Qualität der Gradientenschätzung.

Verwandt: Epoche

Batch-Inferenz

Die gleichzeitige Verarbeitung vieler Eingaben durch ein KI-Modell, statt jede Anfrage einzeln zu bearbeiten. Batch-Inferenz ist deutlich effizienter und kostengünstiger für große Verarbeitungsvolumen, bei denen keine Echtzeit-Antwort erforderlich ist.

Verwandt: Durchsatz

Bayesian Optimization

Eine intelligente Methode zur Hyperparameter-Suche, die vergangene Experimente nutzt, um die nächsten vielversprechendsten Konfigurationen auszuwählen. Im Vergleich zu Grid Search oder Random Search findet Bayesian Optimization gute Hyperparameter mit weniger Trainingsläufen.

Verwandt: AutoML

Benchmark

Ein standardisierter Test zur objektiven Leistungsmessung von KI-Modellen. Bekannte Benchmarks wie MMLU, HumanEval oder GSM8K vergleichen Modelle über verschiedene Aufgaben hinweg. Achtung: Modelle können auf Benchmarks übertrainiert sein und in der Praxis trotzdem schwächeln.

Verwandt: Evals

BERT

Bidirectional Encoder Representations from Transformers – ein einflussreiches Sprachmodell von Google (2018), das Text in beide Richtungen gleichzeitig verarbeitet. BERT revolutionierte NLP-Aufgaben wie Textklassifikation und Named Entity Recognition und war Wegbereiter der modernen LLM-Ära.

Verwandt: Transformer

Bias (Verzerrung)

Systematische Fehler oder Vorurteile in KI-Systemen, die zu unfairen oder falschen Ergebnissen führen. Bias entsteht oft durch unausgewogene Trainingsdaten – zum Beispiel wenn ein KI-System überwiegend auf Daten einer bestimmten Bevölkerungsgruppe trainiert wurde. Unternehmen müssen aktiv prüfen, ob ihre KI-Systeme bestimmte Gruppen bevorzugen oder benachteiligen.

Verwandt: Training / Trainingsdaten

Black Box

Ein KI-System, dessen interne Entscheidungslogik nicht nachvollziehbar ist – man sieht Eingabe und Ausgabe, aber nicht den Weg dazwischen. Viele leistungsfähige Deep-Learning-Modelle sind Black Boxes, was in regulierten Branchen wie Medizin oder Recht problematisch sein kann.

Verwandt: Explainability (XAI)

C

Chain-of-Thought (CoT)

Eine Prompting-Technik, bei der das Modell aufgefordert wird, seinen Lösungsweg Schritt für Schritt zu erklären, bevor es zur Antwort kommt. Chain-of-Thought verbessert die Leistung bei komplexen Rechen- und Logikaufgaben erheblich, weil das Modell Zwischenschritte explizit "durchdenkt".

Verwandt: Prompt Engineering

Chatbot

Ein KI-gestütztes Programm, das Textgespräche mit Menschen führen kann. Moderne Chatbots basieren auf Large Language Models und können komplexe Gespräche führen. Im Unterschied zu einem KI-Agenten reagiert ein Chatbot auf einzelne Nachrichten, plant aber keine mehrstufigen Aufgaben eigenständig.

Verwandt: Large Language Model (LLM)

ChatGPT

Der KI-Chatbot von OpenAI, der im November 2022 veröffentlicht wurde und KI für die breite Öffentlichkeit zugänglich machte. ChatGPT basiert auf der GPT-Modellfamilie und erreichte in Rekordzeit 100 Millionen Nutzer.

Verwandt: Large Language Model (LLM)

Checkpointing

Das regelmäßige Speichern des Modellzustands während des Trainings. Bei einem Absturz oder Fehler kannst du das Training vom letzten Checkpoint fortsetzen, statt von vorne zu beginnen. Beim Training großer Modelle über Wochen ist Checkpointing unverzichtbar.

Verwandt: Training / Trainingsdaten

Claude

Die KI-Assistenten-Familie von Anthropic, benannt nach dem Informationstheoretiker Claude Shannon. Claude-Modelle sind bekannt für ihren Fokus auf Sicherheit, lange Kontextfenster und nuancierte Textverarbeitung. Sie werden sowohl über die Claude.ai-Oberfläche als auch per API eingesetzt.

Verwandt: Constitutional AI

Clustering

Ein unüberwachtes Lernverfahren, das Datenpunkte anhand ihrer Ähnlichkeit in Gruppen einteilt – ohne vorher bekannte Labels. Typische Algorithmen sind K-Means und DBSCAN. Anwendungen: Kundensegmentierung, Themenerkennung in Texten, Anomalie-Erkennung.

Verwandt: Anomalie-Erkennung

CNN (Convolutional Neural Network)

Eine Netzwerkarchitektur, die speziell für die Verarbeitung von Bilddaten entwickelt wurde. CNNs lernen lokale Muster wie Kanten und Texturen durch Faltungsoperationen und bauen diese zu komplexen Merkmalen auf. Sie bilden die Grundlage moderner Computer-Vision-Systeme.

Verwandt: Computer Vision

Computer Use

Eine Fähigkeit von KI-Agenten, einen Computer direkt zu steuern – also Screenshots zu analysieren, Maus zu bewegen und Tastatureingaben zu machen. Anthropic hat diese Fähigkeit mit Claude demonstriert. Computer Use ermöglicht die Automatisierung beliebiger Software ohne dedizierte API-Integration.

Verwandt: Autonomer Agent

Computer Vision

Ein Bereich der KI, der Computern ermöglicht, visuelle Informationen aus Bildern und Videos zu verstehen. Computer Vision wird eingesetzt für Gesichtserkennung, medizinische Bildanalyse, autonomes Fahren und Qualitätskontrolle in der Produktion. Moderne Systeme übertreffen Menschen bei bestimmten Bildanalyse-Aufgaben.

Verwandt: Deep Learning

Constitutional AI

Eine Trainingsmethode von Anthropic, bei der das KI-Modell anhand eines expliziten Regelwerks (der "Verfassung") lernt, hilfreich und harmlos zu sein. Das Modell bewertet seine eigenen Ausgaben und überarbeitet sie nach diesen Prinzipien – ohne ausschließlich auf menschliches Feedback angewiesen zu sein.

Verwandt: AI Alignment

Containerisierung

Eine Technologie (z.B. Docker, Kubernetes), die Anwendungen mit allen Abhängigkeiten in isolierte, portable Einheiten verpackt. Im KI-Betrieb ermöglicht Containerisierung reproduzierbare Deployments von Modellen und konsistente Umgebungen zwischen Entwicklung und Produktion.

Verwandt: Modell-Deployment

Context Engineering

Die Disziplin, den Kontext (Systemprompt, Dokumente, Gesprächshistorie, Tool-Outputs) so zu gestalten, dass ein LLM optimale Ergebnisse liefert. Context Engineering geht über klassisches Prompt Engineering hinaus und umfasst die gesamte Informationsarchitektur, die dem Modell bereitgestellt wird.

Verwandt: Prompt Engineering

Conversational AI

KI-Systeme, die natürliche Dialogführung über mehrere Gesprächsrunden ermöglichen. Conversational AI umfasst Chatbots, Sprachassistenten und Customer-Service-Systeme. Im Unterschied zu einfachen Bots können moderne Systeme Kontext über den Gesprächsverlauf hinweg halten.

Verwandt: Chatbot

Cross-Validation

Eine Methode zur zuverlässigeren Bewertung von Modellleistung, bei der der Datensatz in mehrere Teile aufgeteilt wird. Das Modell wird abwechselnd auf verschiedenen Teilmengen trainiert und getestet. Cross-Validation hilft, Overfitting zu erkennen und liefert stabilere Leistungsschätzungen als ein einzelner Test-Split.

Verwandt: Overfitting

D

DALL-E

Ein Bildgenerierungsmodell von OpenAI, das aus Textbeschreibungen realistische und kreative Bilder erzeugt. DALL-E war eines der ersten Modelle, das die Qualität generativer Bildmodelle breiter Öffentlichkeit zugänglich machte, und konkurriert heute mit Midjourney und Stable Diffusion.

Verwandt: Diffusion Model

Data Augmentation

Techniken, die vorhandene Trainingsdaten künstlich erweitern, indem Variationen erstellt werden – z.B. Bilder spiegeln, rotieren oder mit Rauschen versehen. Data Augmentation verbessert die Generalisierung des Modells und reduziert den Bedarf an teuren, manuell gelabelten Daten.

Verwandt: Training / Trainingsdaten

Data Science

Die Wissenschaft, aus Daten nützliche Erkenntnisse zu gewinnen. Data Scientists kombinieren Statistik, Programmierung und Fachkenntnisse, um Muster in Daten zu finden.

Verwandt: Machine Learning

Dataset

Eine strukturierte Sammlung von Daten, die zum Training, zur Validierung oder zum Testen von KI-Modellen verwendet wird. Die Qualität und Repräsentativität eines Datasets bestimmt maßgeblich, wie gut das trainierte Modell in der Praxis funktioniert.

Verwandt: Training / Trainingsdaten

Datenlabeling

Der Prozess, Rohdaten mit Annotationen zu versehen, die dem Modell zeigen, was die "richtige" Antwort ist. Beispiele: Bilder mit Objektrahmen markieren, Texte mit Stimmungen kategorisieren, Sprachaufnahmen transkribieren. Datenlabeling ist oft zeitaufwändig und kostspielig – und entscheidend für die Modellqualität.

Verwandt: Training / Trainingsdaten

Datenschutz

Im KI-Kontext bezeichnet Datenschutz den Schutz personenbezogener Daten bei der Entwicklung und dem Betrieb von KI-Systemen. In Europa ist die DSGVO der zentrale Rechtsrahmen. Besondere Herausforderungen entstehen bei der Nutzung von Kundendaten für Training, bei Sprachmodellen mit Gedächtnisfunktion und beim Einsatz von KI in sensiblen Bereichen.

Verwandt: DSGVO

Deep Learning

Eine besonders leistungsfähige Form des maschinellen Lernens mit künstlichen neuronalen Netzen. Deep Learning hat Bilderkennung, Sprachverarbeitung und KI revolutioniert.

Verwandt: Neuronales Netz

Deepfake

Synthetische Medieninhalte – Videos, Audios oder Bilder – bei denen KI das Aussehen oder die Stimme einer Person realistisch fälscht. Deepfakes werden für Desinformation, Betrug und nicht-konsensuellen Missbrauch eingesetzt. Die Technologie basiert auf GANs oder Diffusion Models.

Verwandt: GAN (Generative Adversarial Network)

DeepSeek

Ein chinesisches KI-Unternehmen und seine gleichnamige Modellfamilie, die mit deutlich geringerem Trainingsaufwand mit führenden westlichen Modellen konkurriert. DeepSeek-R1 sorgte Anfang 2025 für Aufsehen, weil es trotz vergleichsweise kleinem Budget ChatGPT in mehreren Benchmarks einholte.

Verwandt: Large Language Model (LLM)

Diffusion Model

Eine generative Modellarchitektur, die lernt, schrittweise Rauschen aus einem verrauschten Bild zu entfernen, bis ein kohärentes Ergebnis entsteht. Diffusion Models bilden die Grundlage von Stable Diffusion, Midjourney und DALL-E und haben GANs als dominante Bildgenerierungsarchitektur weitgehend abgelöst.

Verwandt: GAN (Generative Adversarial Network)

Distillation

Eine Technik, bei der ein kleines "Student"-Modell darauf trainiert wird, das Verhalten eines größeren "Teacher"-Modells nachzuahmen. Durch Distillation entstehen kompakte Modelle, die einen Großteil der Leistung des Originals erreichen – bei deutlich geringerem Speicher- und Rechenaufwand.

Verwandt: Fine-Tuning

Dokumentenverarbeitung

Der KI-gestützte Prozess, strukturierte und unstrukturierte Dokumente – Rechnungen, Verträge, Formulare – automatisch zu lesen, zu klassifizieren und relevante Informationen zu extrahieren. Moderne Systeme kombinieren OCR, Named Entity Recognition und LLMs für hohe Genauigkeit.

Verwandt: Natural Language Processing (NLP)

DPO (Direct Preference Optimization)

Eine Alternative zum Reinforcement Learning from Human Feedback (RLHF), die Modelle direkt auf Basis von Präferenzdaten trainiert – ohne ein separates Reward-Modell. DPO ist stabiler zu trainieren und hat sich als wichtige Methode für das Alignment von Sprachmodellen etabliert.

Verwandt: RLHF (Reinforcement Learning from Human Feedback)

Dropout

Eine Regularisierungstechnik für neuronale Netze, bei der während des Trainings zufällig ein Teil der Neuronen deaktiviert wird. Das zwingt das Netz, robustere Repräsentationen zu lernen, und reduziert Overfitting erheblich.

Verwandt: Overfitting

DSGVO

Die Datenschutz-Grundverordnung der EU, die regelt, wie personenbezogene Daten verarbeitet werden dürfen. Für KI-Anwendungen in Europa ist die DSGVO ein zentrales rechtliches Rahmenwerk.

Verwandt: EU AI Act

Durchsatz

Die Anzahl von Anfragen oder Tokens, die ein KI-System pro Zeiteinheit verarbeiten kann. Durchsatz ist eine zentrale Infrastruktur-Kenngröße – besonders bei skalierten Produktivsystemen, wo Latenz und Kosten pro Token direkt vom Durchsatz abhängen.

Verwandt: Inferenz

E

Edge AI

KI-Systeme, die direkt auf dem Gerät laufen – auf dem Smartphone, der Kamera oder der Maschine – anstatt auf entfernten Servern in der Cloud. Edge AI ist schneller, datenschutzfreundlicher und funktioniert auch ohne Internetverbindung. Typische Anwendungen: Spracherkennung auf dem Handy, Qualitätsprüfung in der Fabrik, autonome Fahrzeuge.

Verwandt: Computer Vision

Embedding

Eine numerische Vektordarstellung von Text, Bildern oder anderen Daten, die semantische Ähnlichkeit in geometrische Nähe übersetzt. Embeddings sind die Grundlage für semantische Suche, Empfehlungssysteme und RAG-Systeme: Ähnliche Inhalte landen nah beieinander im Vektorraum.

Verwandt: Vektordatenbank

Embedding-Modell

Ein spezialisiertes KI-Modell, das Text (oder andere Daten) in Vektoren umwandelt. Anders als generative Modelle erzeugen Embedding-Modelle keine Texte, sondern numerische Repräsentationen für Vergleiche und Suche. Bekannte Beispiele: OpenAI text-embedding-3, Cohere Embed.

Verwandt: Embedding

Encoder-Decoder

Eine Modellarchitektur mit zwei Komponenten: Der Encoder verarbeitet die Eingabe in eine kompakte Repräsentation, der Decoder generiert daraus die Ausgabe. Diese Architektur wird für Übersetzung, Zusammenfassung und andere Seq-to-Seq-Aufgaben eingesetzt. T5 und BART sind bekannte Beispiele.

Verwandt: Transformer

Entscheidungsbaum

Ein interpretiertes Lernmodell, das Entscheidungen als Baumstruktur aus Wenn-Dann-Regeln abbildet. Entscheidungsbäume sind leicht verständlich, aber anfällig für Overfitting. Moderne Ensemble-Methoden wie Random Forest und Gradient Boosting kombinieren viele Bäume zu deutlich robusteren Modellen.

Verwandt: Gradient Boosting

Epoche

Ein vollständiger Durchlauf durch den gesamten Trainingsdatensatz. Beim Training werden meist viele Epochen durchgeführt. Zu wenige Epochen führen zu Underfitting, zu viele zu Overfitting – die optimale Anzahl wird über Validierungsdaten bestimmt.

Verwandt: Batch

EU AI Act

Das KI-Gesetz der EU, das Regeln für den Einsatz von KI in Europa festlegt. Es klassifiziert KI-Systeme nach Risikostufen und definiert Anforderungen für Transparenz, Sicherheit und Verantwortung.

Verwandt: DSGVO

Evals

Strukturierte Evaluierungsverfahren, mit denen die Qualität, Sicherheit und Nützlichkeit von KI-Modellen gemessen wird. Evals gehen über einfache Benchmarks hinaus und umfassen oft aufgabenspezifische Testsuiten, menschliche Bewertungen und automatisierte Qualitätschecks.

Verwandt: Benchmark

Explainability (XAI)

Der Bereich der KI, der sich damit beschäftigt, Modellentscheidungen für Menschen verständlich zu machen. Methoden wie SHAP oder LIME erklären, welche Eingabefaktoren zu einer bestimmten Vorhersage geführt haben. XAI ist besonders wichtig in regulierten Bereichen wie Kreditvergabe oder Medizin.

Verwandt: Black Box

Extended Thinking

Eine Modell-Fähigkeit, bei der das System vor der Antwort einen internen "Denk"-Prozess durchläuft, der für den Nutzer optional sichtbar ist. Extended Thinking verbessert die Leistung bei komplexen Reasoning-Aufgaben und ist z.B. in Claude 3.7 Sonnet implementiert.

Verwandt: Chain-of-Thought (CoT)

F

F1-Score

Ein Gütemaß für KI-Klassifikationsmodelle, das Precision und Recall zu einem einzigen Wert kombiniert. Der F1-Score ist besonders nützlich bei ungleichmäßig verteilten Klassen, wo Accuracy irreführend sein kann.

Verwandt: Accuracy

Fairness

Das Prinzip, dass KI-Systeme keine systematischen Nachteile für bestimmte Gruppen erzeugen sollen. Fairness ist kein einzelnes Konzept, sondern ein Bündel verschiedener, teilweise widersprüchlicher mathematischer Definitionen. In der Praxis müssen Unternehmen aktiv testen, ob ihre Modelle diskriminierend wirken.

Verwandt: Bias (Verzerrung)

FAISS

Facebook AI Similarity Search – eine Open-Source-Bibliothek für hocheffiziente Vektorsuche, entwickelt von Meta. FAISS wird eingesetzt, wenn Millionen oder Milliarden von Embeddings in Millisekunden durchsucht werden müssen, und bildet die Grundlage vieler RAG-Systeme.

Verwandt: Approximate Nearest Neighbor

Feature

Eine messbare Eigenschaft oder Variable, die als Eingabe für ein KI-Modell dient. Bei einem Kreditrisikomodell könnten Features das Alter, das Einkommen und die Anzahl bisheriger Kredite sein. Die Auswahl und Qualität der Features hat enormen Einfluss auf die Modellleistung.

Verwandt: Feature Engineering

Feature Engineering

Der Prozess, aus Rohdaten aussagekräftige Input-Variablen für ein Modell zu erstellen. Gutes Feature Engineering erfordert Domänenwissen und war vor der Deep-Learning-Ära die wichtigste Stellschraube für Modellqualität. Tiefe Netze lernen Features oft selbstständig, aber in strukturierten Daten bleibt Feature Engineering entscheidend.

Verwandt: Feature

Feature Store

Eine zentrale Plattform, die berechnete Features für Machine-Learning-Modelle speichert, versioniert und für Training und Inferenz bereitstellt. Feature Stores lösen das Problem, dass Features in unterschiedlichen Teams doppelt berechnet oder inkonsistent verwendet werden.

Verwandt: Feature Engineering

Few-Shot Prompting

Eine Prompting-Technik, bei der dem Modell wenige Beispiele (Shots) im Prompt mitgegeben werden, um das gewünschte Ausgabeformat oder Verhalten zu demonstrieren. Few-Shot Prompting ist effektiver als keine Beispiele (Zero-Shot), ohne das Modell aufwändig neu zu trainieren.

Verwandt: Prompt Engineering

Fine-Tuning

Das Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe mit eigenen Daten. Statt von Null zu trainieren, baut man auf ein bestehendes Modell auf – effizienter und kostengünstiger. Fine-Tuning ermöglicht es Unternehmen, allgemeine Sprachmodelle auf ihre Branche, Produkte oder Schreibstil anzupassen.

Verwandt: Training / Trainingsdaten

Flash Model

Bezeichnung für besonders schnelle, kostengünstige Varianten großer KI-Modelle – z.B. Gemini Flash oder Claude Haiku. Flash-Modelle sind für den Massenmarkt optimiert und bieten einen guten Kompromiss zwischen Geschwindigkeit, Kosten und Qualität für einfachere Aufgaben.

Verwandt: Foundation Model

Foundation Model

Ein großes, auf breiten Datenmengen vortrainiertes Modell, das als Grundlage für viele verschiedene Downstream-Aufgaben dient. GPT-4, Claude, Gemini und Llama sind Foundation Models. Der Begriff wurde 2021 von der Stanford-Gruppe geprägt.

Verwandt: Large Language Model (LLM)

Function Calling

Eine Fähigkeit von LLMs, strukturiert externe Werkzeuge oder APIs aufzurufen, indem sie Funktionsnamen und Parameter als strukturierten Output erzeugen. Function Calling ist der Kernmechanismus, mit dem Agenten Aktionen in der realen Welt auslösen – z.B. eine Datenbankabfrage oder einen Kalendertermin erstellen.

Verwandt: KI-Agent

G

GAN (Generative Adversarial Network)

Eine generative Modellarchitektur, bei der zwei neuronale Netze gegeneinander trainieren: ein Generator, der Daten erzeugt, und ein Diskriminator, der echte von gefälschten Daten unterscheiden soll. GANs haben fotorealistische Bildgenerierung popularisiert, sind aber schwieriger zu trainieren als Diffusion Models.

Verwandt: Diffusion Model

Gemini

Die multimodale KI-Modellfamilie von Google DeepMind, verfügbar in den Varianten Ultra, Pro, Flash und Nano. Gemini war das erste Modell, das nativ mit Text, Bildern, Audio und Video umgehen kann, und konkurriert direkt mit GPT-4 und Claude.

Verwandt: Large Language Model (LLM)

Generalisierung

Die Fähigkeit eines trainierten KI-Modells, auf unbekannten Daten gut zu funktionieren. Ein Modell, das nur auf den Trainingsdaten gut abschneidet, auf neuen Daten aber versagt, hat schlecht generalisiert (Overfitting). Generalisierung ist das eigentliche Ziel des Maschinenlernens.

Verwandt: Overfitting

Generative KI

KI-Systeme, die neue Inhalte erstellen können – Texte, Bilder, Musik oder Code. ChatGPT, Midjourney und Sora sind bekannte Beispiele für generative KI-Tools.

Verwandt: Large Language Model (LLM)

Gesichtserkennung

KI-Technologie zur automatischen Identifikation von Personen anhand ihrer Gesichtsmerkmale. Gesichtserkennung ist weit verbreitet in Smartphone-Entsperrung und Sicherheitssystemen, steht aber wegen Datenschutz, Bias und Überwachungspotenzialen unter starkem regulatorischen Druck in der EU.

Verwandt: Computer Vision

GitHub Copilot

Ein KI-gestützter Code-Assistent von GitHub (Microsoft), der direkt in der IDE Codevorschläge, Funktionskomplettierungen und ganze Implementierungen generiert. Copilot basiert auf OpenAI-Modellen und ist eines der meistgenutzten KI-Werkzeuge in der Softwareentwicklung.

Verwandt: Large Language Model (LLM)

GPU

Graphics Processing Unit – ursprünglich für Grafik entwickelt, heute der Standard-Chip für KI-Training und -Inferenz. GPUs können tausende Rechenoperationen parallel ausführen, was für die Matrixmultiplikationen in neuronalen Netzen entscheidend ist. NVIDIA dominiert den KI-GPU-Markt mit seinen H100- und A100-Chips.

Verwandt: Edge AI

Gradient

Die Ableitung einer Verlustfunktion nach den Modellparametern – mathematisch ein Vektor, der zeigt, in welche Richtung und wie stark ein Parameter den Fehler beeinflusst. Gradienten sind die Grundlage von Backpropagation und Gradient Descent.

Verwandt: Gradient Descent

Gradient Boosting

Ein Ensemble-Lernverfahren, das viele schwache Entscheidungsbäume sequenziell trainiert, wobei jeder Baum die Fehler des Vorgängers korrigiert. Gradient Boosting (z.B. XGBoost, LightGBM) dominiert strukturierte Datensätze bei Kaggle-Wettbewerben und im Unternehmenseinsatz.

Verwandt: Entscheidungsbaum

Gradient Descent

Der Optimierungsalgorithmus, der KI-Modelle trainiert, indem er Parameter schrittweise in Richtung des steilsten Abstiegs der Verlustfunktion anpasst. Varianten wie SGD (Stochastic Gradient Descent) und Adam sind in der Praxis am verbreitetsten.

Verwandt: Gradient

Greedy Decoding

Eine einfache Textgenerierungsstrategie, bei der das Modell bei jedem Schritt immer das wahrscheinlichste nächste Token auswählt. Greedy Decoding ist schnell, erzeugt aber oft repetitive und suboptimale Texte. Alternativen sind Beam Search und Sampling-Methoden.

Verwandt: Beam Search

Ground Truth

Die als korrekt geltenden Referenzdaten, gegen die KI-Vorhersagen gemessen werden. Ground Truth wird meist von Menschen annotiert und bildet die Grundlage für Trainings- und Evaluierungsdatensätze. Die Qualität der Ground Truth bestimmt direkt die Qualität des Modells.

Verwandt: Datenlabeling

H

Halluzination

Wenn eine KI überzeugend klingende, aber faktisch falsche Informationen generiert. Halluzinationen entstehen, weil Sprachmodelle auf Wahrscheinlichkeiten basieren, nicht auf Faktenwissen – sie "glauben" nicht, sie berechnen. Deshalb solltest du kritische Fakten immer gegen verlässliche Quellen prüfen.

Verwandt: Large Language Model (LLM)

Human in the Loop (HITL)

Ein Ansatz, bei dem Menschen aktiv in den Entscheidungsprozess eines KI-Systems eingebunden werden. Statt vollständig autonom zu handeln, holt das System an kritischen Punkten menschliche Bestätigung oder Korrektur ein. HITL ist besonders wichtig bei Hochrisiko-Entscheidungen, etwa in der Medizin oder Justiz.

Verwandt: KI-Agent

Hyperparameter

Einstellungen eines ML-Modells, die vor dem Training festgelegt werden und den Lernprozess steuern – zum Beispiel die Lernrate, die Anzahl der Schichten oder die Batch-Größe. Im Gegensatz zu Modell-Parametern lernt das System Hyperparameter nicht selbst, sondern du oder das Team wählen sie manuell oder per automatischer Suche.

Verwandt: Training / Trainingsdaten

I

In-Context Learning

Die Fähigkeit eines Sprachmodells, neue Aufgaben allein durch Beispiele im Prompt zu erlernen – ohne Anpassung der Modell-Gewichte. Du gibst dem Modell einfach ein paar Beispiele im Eingabetext, und es erkennt das Muster. Diese Technik ist die Grundlage für Few-Shot-Prompting.

Verwandt: Prompt Engineering

Inferenz

Der Vorgang, bei dem ein trainiertes KI-Modell eine Vorhersage oder Antwort auf neue Eingaben erzeugt. Inferenz ist das Gegenteil von Training: Das Modell wird nicht mehr verändert, sondern wendet sein gelerntes Wissen an. Bei großen Sprachmodellen verbraucht Inferenz erhebliche Rechenressourcen.

Verwandt: Training / Trainingsdaten

Instruction Tuning

Eine Form des Fine-Tunings, bei der ein Basismodell mit Beispielen aus menschlichen Anweisungen und entsprechenden Antworten weitertrainiert wird. Das Ziel ist, das Modell besser auf natürlichsprachliche Befehle reagieren zu lassen. Modelle wie ChatGPT oder Claude basieren auf dieser Technik.

Verwandt: Fine-Tuning

Interpretierbarkeit

Die Fähigkeit, die Entscheidungen eines KI-Modells nachvollziehen und erklären zu können. Bei einfachen Modellen wie Entscheidungsbäumen ist dies leicht, bei tiefen neuronalen Netzen schwierig – man spricht dann von einer „Black Box". Interpretierbarkeit ist besonders in regulierten Bereichen wie Medizin oder Kredit-Scoring wichtig.

Verwandt: Bias (Verzerrung)

J

Jailbreaking

Gezielte Versuche, die Sicherheits- und Verhaltensregeln eines KI-Systems durch manipulative Prompts zu umgehen. Durch kreative Umformulierungen oder Rollenspiele können manche Nutzer Modelle dazu bringen, Inhalte zu erzeugen, die eigentlich blockiert sein sollten. KI-Anbieter arbeiten kontinuierlich an Gegenmaßnahmen.

Verwandt: Halluzination

K

KI (Künstliche Intelligenz)

Computersysteme, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern – wie Sprachverstehen, Bildanalyse, Entscheidungsfindung oder kreatives Schreiben.

Verwandt: Machine Learning

KI-Agent

Ein KI-System, das eigenständig Aufgaben plant und ausführt – ohne bei jedem Schritt auf menschliche Eingabe zu warten. Im Gegensatz zu einem einfachen Chatbot kann ein KI-Agent Werkzeuge nutzen, Entscheidungen treffen und mehrstufige Aufgaben abarbeiten. Beispiele: ein Agent, der selbstständig Daten recherchiert, eine Zusammenfassung erstellt und das Ergebnis per E-Mail versendet.

Verwandt: Automatisierung

KI-Copilot

Ein KI-Assistent, der Menschen bei ihrer Arbeit unterstützt, ohne vollständig autonom zu handeln. Der Begriff wurde durch GitHub Copilot für Programmierer bekannt, wird aber inzwischen für viele Werkzeuge verwendet, die neben dem Menschen arbeiten – vom Schreiben bis zur Datenanalyse.

Verwandt: KI-Agent

KI-Governance

Der Rahmen aus Regeln, Prozessen und Verantwortlichkeiten, der den verantwortungsvollen Einsatz von KI in einer Organisation oder Gesellschaft sicherstellt. Dazu gehören interne Richtlinien, Risikobewertungen und die Einhaltung gesetzlicher Vorgaben wie des EU AI Act. Ohne Governance entstehen unkontrollierte Risiken beim KI-Einsatz.

Verwandt: EU AI Act

KI-Schulden

Wenn Unternehmen KI-Systeme schnell und unkontrolliert einführen, ohne klare Strategie, Dokumentation oder Qualitätssicherung, entstehen „KI-Schulden" – also technische und organisatorische Probleme, die sich mit der Zeit häufen. Typische Symptome: veraltete Modelle im Einsatz, fehlende Datenpflege, unklare Verantwortlichkeiten. Wie finanzielle Schulden müssen KI-Schulden aktiv abgebaut werden.

Verwandt: Training / Trainingsdaten

Klassifikation

Eine grundlegende ML-Aufgabe, bei der ein Modell Eingaben einer von mehreren vordefinierten Kategorien zuordnet. Beispiele: E-Mails als Spam oder kein Spam einteilen, Bilder nach Tierart sortieren, Kundenbewertungen als positiv oder negativ klassifizieren. Klassifikation ist Supervised Learning – das Modell lernt aus beschrifteten Beispielen.

Verwandt: Supervised Learning

Knowledge Graph

Eine strukturierte Wissensdatenbank, die Fakten als Netz von Entitäten und ihren Beziehungen speichert – zum Beispiel „Hamburg ist-Stadt-in Deutschland". Knowledge Graphs werden von Suchmaschinen und KI-Systemen genutzt, um Zusammenhänge zu verstehen. Sie ergänzen Sprachmodelle, die oft keine strukturierten Fakten zuverlässig speichern.

Verwandt: RAG (Retrieval-Augmented Generation)

Konfusionsmatrix

Eine Tabelle zur Bewertung der Vorhersagequalität eines Klassifikationsmodells. Sie zeigt, wie viele Beispiele korrekt oder falsch klassifiziert wurden – aufgeteilt in richtig-positiv, falsch-positiv, richtig-negativ und falsch-negativ. Aus ihr lassen sich Kennzahlen wie Präzision, Recall und F1-Score ableiten.

Verwandt: Klassifikation

Kontextfenster

Die maximale Textmenge, die ein Sprachmodell in einem einzigen Durchgang verarbeiten kann – also Eingabe plus Ausgabe zusammen. Moderne Modelle haben Kontextfenster von 128.000 bis über einer Million Token. Inhalte außerhalb des Fensters „sieht" das Modell nicht und kann sie nicht berücksichtigen.

Verwandt: Large Language Model (LLM)

Koreferenz-Auflösung

Die Fähigkeit eines NLP-Systems zu erkennen, dass verschiedene Ausdrücke in einem Text dieselbe Person oder dasselbe Objekt meinen – zum Beispiel „Angela Merkel", „sie" und „die Kanzlerin" in einem Satz. Koreferenz-Auflösung ist wichtig für das tiefe Textverstehen und verbessert die Qualität von Zusammenfassungen und Chatbots.

Verwandt: Natural Language Processing (NLP)

Kosinus-Ähnlichkeit

Ein mathematisches Maß, das misst, wie ähnlich zwei Vektoren sind – unabhängig von ihrer Länge. In der KI wird es genutzt, um die semantische Ähnlichkeit zwischen Texten oder Embeddings zu berechnen. Ein Kosinus-Wert von 1 bedeutet identisch, 0 bedeutet komplett verschieden.

Verwandt: Embedding

L

Label

Die bekannte Zielgröße oder Kategorie, die einem Trainingsdatenpunkt zugewiesen ist. Beim überwachten Lernen lernt das Modell, aus Eingaben die zugehörigen Labels vorherzusagen. Labels werden oft manuell von Menschen erstellt – dieser Prozess heißt Annotation.

Verwandt: Supervised Learning

Large Language Model (LLM)

Ein großes Sprachmodell, das auf riesigen Textmengen trainiert wurde, um Sprache zu verstehen und zu generieren. GPT-4, Claude und Gemini sind bekannte LLMs. Die „Größe" eines LLM bezieht sich auf die Anzahl der Parameter – bei modernen Modellen oft mehrere hundert Milliarden.

Verwandt: Transformer

Latenz

Die Zeitspanne zwischen dem Absenden einer Anfrage an ein KI-System und dem Erhalt der ersten Antwort. Geringe Latenz ist entscheidend für interaktive Anwendungen wie Chatbots. Sie hängt von Modellgröße, Hardware, Netzwerkverbindung und Serverauslastung ab.

Verwandt: Inferenz

Lemmatisierung

Ein NLP-Verfahren, das Wörter auf ihre Grundform zurückführt – „lief" wird zu „laufen", „bessere" wird zu „gut". Im Gegensatz zum einfacheren Stemming berücksichtigt Lemmatisierung die Grammatik und liefert tatsächlich existierende Wortformen. Sie verbessert die Qualität von Textanalysen und Suchmaschinen.

Verwandt: Natural Language Processing (NLP)

Lernrate

Ein Hyperparameter, der bestimmt, wie stark ein Modell seine Gewichte nach jedem Trainingsschritt anpasst. Eine zu hohe Lernrate führt zu instabilem Training, eine zu niedrige macht den Prozess sehr langsam. Die Wahl der richtigen Lernrate ist eine der wichtigsten Entscheidungen beim Modelltraining.

Verwandt: Hyperparameter

Llama

Eine Familie offener Sprachmodelle von Meta, die kostenlos heruntergeladen und lokal betrieben werden können. Llama-Modelle sind die Grundlage vieler Open-Source-KI-Projekte und ermöglichen es Entwicklern, leistungsfähige Sprachmodelle ohne Cloud-Abhängigkeit zu nutzen. Mit jeder neuen Version verbessert sich die Leistung deutlich.

Verwandt: Large Language Model (LLM)

Logprob

Abkürzung für Log-Wahrscheinlichkeit – ein Maß dafür, wie sicher sich ein Sprachmodell bei der Wahl des nächsten Tokens ist. Hohe Logprobs bedeuten, dass das Modell diese Ausgabe als sehr wahrscheinlich bewertet. Logprobs werden genutzt, um Modell-Konfidenz zu messen oder unzuverlässige Ausgaben zu erkennen.

Verwandt: Large Language Model (LLM)

Long Context

Beschreibt Sprachmodelle oder Architekturen, die besonders große Kontextfenster verarbeiten können – oft 100.000 Token oder mehr. Long-Context-Modelle können ganze Bücher, lange Code-Repositories oder umfangreiche Dokumente auf einmal analysieren. Die Herausforderung besteht darin, relevante Informationen im riesigen Kontext zuverlässig zu finden.

Verwandt: Kontextfenster

LoRA (Low-Rank Adaptation)

Eine effiziente Methode zum Fine-Tuning großer Modelle, bei der nur ein kleiner Satz zusätzlicher Parameter trainiert wird, statt alle Modell-Gewichte anzupassen. LoRA reduziert den Speicher- und Rechenaufwand erheblich und macht Fine-Tuning auch auf Consumer-Hardware möglich. Es ist eine der beliebtesten Techniken für das Anpassen offener Modelle.

Verwandt: Fine-Tuning

LSTM (Long Short-Term Memory)

Eine spezielle Art von rekurrentem neuronalem Netz, das darauf ausgelegt ist, langfristige Abhängigkeiten in Sequenzen zu lernen. LSTMs waren vor der Transformer-Ära der Standard für Sprach- und Zeitreihenmodelle. Heute werden sie meist durch Transformer ersetzt, kommen aber noch in eingebetteten Systemen und Zeitreihenanalysen vor.

Verwandt: Transformer

M

Machine Learning

Ein Teilgebiet der KI, bei dem Computer aus Daten lernen, ohne explizit programmiert zu werden. Anstatt fester Regeln werden Muster aus Beispielen gelernt.

Verwandt: Deep Learning

Maschinelle Übersetzung

Die automatische Übersetzung von Text zwischen Sprachen durch KI-Systeme. Moderne Systeme wie DeepL oder Google Translate nutzen neuronale Netze und liefern in vielen Sprachpaaren nahezu professionelle Qualität. Maschinelle Übersetzung ist eine der ältesten und erfolgreichsten KI-Anwendungen.

Verwandt: Natural Language Processing (NLP)

MCP (Model Context Protocol)

Ein offenes Protokoll von Anthropic, das es KI-Modellen ermöglicht, standardisiert auf externe Werkzeuge, Datenquellen und Dienste zuzugreifen. MCP funktioniert wie eine universelle Schnittstelle zwischen Sprachmodellen und der restlichen Software-Welt. Es vereinfacht die Integration von KI-Agenten in bestehende Systeme erheblich.

Verwandt: KI-Agent

Memory (KI-Agent)

Die Fähigkeit eines KI-Agenten, Informationen über die aktuelle Sitzung hinaus zu speichern und abzurufen. Ohne Gedächtnis beginnt jeder Aufruf von vorne – mit Gedächtnis kann der Agent auf frühere Ergebnisse, Nutzerpräferenzen oder vergangene Entscheidungen zurückgreifen. Es gibt Kurzzeit- und Langzeitgedächtnis in verschiedenen Architekturen.

Verwandt: KI-Agent

Meta-Prompting

Eine Prompting-Technik, bei der du ein Sprachmodell anweist, zunächst einen besseren Prompt für eine Aufgabe zu erstellen, bevor es die eigentliche Aufgabe löst. Das Modell übernimmt dabei die Rolle des Prompt-Designers. Meta-Prompting kann die Ergebnisqualität deutlich verbessern, insbesondere bei komplexen Aufgaben.

Verwandt: Prompt Engineering

Midjourney

Ein populäres KI-Bildgenerierungssystem, das aus Textbeschreibungen hochwertige Bilder erzeugt. Midjourney ist bekannt für seinen künstlerischen Stil und wird von Designern, Kreativen und Marketern genutzt. Es ist als Discord-Bot verfügbar und hat eine eigene Web-Oberfläche.

Verwandt: Generative KI

Mistral

Ein französisches KI-Unternehmen und seine gleichnamige Familie effizienter Sprachmodelle. Mistral-Modelle gelten als besonders ressourcensparsam und liefern trotz geringer Größe starke Leistung. Sie sind teilweise als Open-Source verfügbar und bei europäischen Unternehmen mit Datenschutzanforderungen beliebt.

Verwandt: Large Language Model (LLM)

Mixture of Experts (MoE)

Eine Modellarchitektur, bei der nur ein Teil der Modell-Parameter für jede Eingabe aktiviert wird – die sogenannten Experten. Das ermöglicht sehr große Modelle mit effizientem Rechenaufwand, weil nicht alle Parameter gleichzeitig genutzt werden. GPT-4 und viele andere aktuelle Spitzenmodelle nutzen vermutlich MoE-Architekturen.

Verwandt: Transformer

MLOps

Die Kombination aus Machine Learning und DevOps – also die Praktiken und Werkzeuge, um ML-Modelle zuverlässig zu entwickeln, zu deployen und zu betreiben. MLOps umfasst Versionierung von Modellen und Daten, automatisierte Pipelines, Monitoring und Retraining. Es überbrückt die Lücke zwischen Forschung und produktivem Betrieb.

Verwandt: Modell-Deployment

Modell

Im KI-Kontext ein mathematisches System, das aus Trainingsdaten gelernt hat und neue Eingaben verarbeiten kann. Ein Modell ist das Ergebnis des Trainingsprozesses – gespeichert als Datei mit Millionen oder Milliarden von Gewichten. Der Begriff wird sowohl für kleine Klassifikatoren als auch für riesige Sprachmodelle verwendet.

Verwandt: Training / Trainingsdaten

Modell-Deployment

Der Prozess, ein trainiertes KI-Modell in eine produktive Umgebung zu bringen, sodass andere Anwendungen oder Nutzer es verwenden können. Deployment umfasst Hosting, API-Bereitstellung, Skalierung und Monitoring. Es ist oft aufwendiger als das eigentliche Training.

Verwandt: Inferenz

Modell-Komprimierung

Techniken, um KI-Modelle kleiner und schneller zu machen, ohne viel Leistung zu verlieren. Dazu gehören Quantisierung (weniger Bits pro Gewicht), Pruning (Entfernen unwichtiger Verbindungen) und Destillation (kleines Modell lernt von großem). Komprimierung ermöglicht den Einsatz auf mobilen Geräten oder Edge-Hardware.

Verwandt: Edge AI

Multi-Agent System

Eine Architektur, bei der mehrere KI-Agenten zusammenarbeiten, um komplexe Aufgaben zu lösen. Jeder Agent übernimmt eine spezialisierte Rolle – zum Beispiel Recherche, Analyse und Verfassen. Durch die Zusammenarbeit können Aufgaben parallelisiert und die Qualität durch gegenseitige Überprüfung verbessert werden.

Verwandt: KI-Agent

Multimodales Modell

Ein KI-Modell, das mehrere Eingangsmodalitäten wie Text, Bild, Audio oder Video verarbeiten kann. Im Gegensatz zu reinen Sprachmodellen können multimodale Modelle visuelle und akustische Informationen direkt einbeziehen. Beispiele sind GPT-4o, Gemini Ultra und Claude 3 Sonnet.

Verwandt: Large Language Model (LLM)

Multimodalität

Die Fähigkeit eines KI-Systems, verschiedene Datentypen gleichzeitig zu verarbeiten – Text, Bilder, Audio und Video. Multimodale Modelle wie GPT-4o oder Gemini können zum Beispiel ein Bild beschreiben, Fragen dazu beantworten oder aus einer Zeichnung Code generieren. Multimodalität nähert sich der menschlichen Wahrnehmung an.

Verwandt: Generative KI

N

N-Gramm

Eine Sequenz von N aufeinanderfolgenden Wörtern oder Zeichen in einem Text. Bigramme sind Zweier-Folgen, Trigramme Dreier-Folgen. N-Gramme werden in klassischen NLP-Modellen und Suchmaschinen verwendet, um Sprachmuster zu erkennen. In der Ära der Transformer spielen sie eine geringere Rolle, sind aber noch in der Textanalyse relevant.

Verwandt: Natural Language Processing (NLP)

Named Entity Recognition (NER)

Eine NLP-Aufgabe, bei der benannte Entitäten wie Personen, Orte, Organisationen oder Datumsangaben in einem Text automatisch erkannt und klassifiziert werden. NER ist ein Baustein für Informationsextraktion und wird in juristischen, medizinischen und journalistischen Anwendungen genutzt.

Verwandt: Natural Language Processing (NLP)

Nano Model

Sehr kleine Sprachmodelle mit wenigen Milliarden oder sogar nur Hunderten Millionen Parametern, die auf schwachen Geräten wie Smartphones oder Mikrocontrollern laufen können. Nano-Modelle sind auf spezifische Aufgaben optimiert und verbrauchen minimale Ressourcen. Sie sind Teil des Trends zu Effizienz und dezentraler KI.

Verwandt: Edge AI

Natural Language Generation (NLG)

Der Teilbereich der KI, der sich mit der automatischen Erzeugung von natürlichsprachlichem Text aus strukturierten Daten oder anderen Eingaben befasst. NLG kommt in automatisierten Berichten, Produktbeschreibungen und Chatbot-Antworten zum Einsatz. Moderne LLMs haben NLG auf ein neues Qualitätsniveau gehoben.

Verwandt: Large Language Model (LLM)

Natural Language Processing (NLP)

Die Fähigkeit von Computern, menschliche Sprache zu verstehen und zu verarbeiten. NLP ist die Grundlage für Chatbots, Übersetzungstools und Sprachassistenten.

Verwandt: Large Language Model (LLM)

Natural Language Understanding (NLU)

Der Teilbereich von NLP, der sich mit dem tiefen Verstehen von Sprache befasst – Absichten erkennen, Bedeutungen erschließen, Mehrdeutigkeiten auflösen. NLU ist die Grundlage für Sprachassistenten und Chatbots, die auf Nutzerwünsche sinnvoll reagieren sollen. Es ist schwieriger als reines Texterzeugen.

Verwandt: Natural Language Processing (NLP)

Neuronales Netz

Ein KI-Modell, das lose vom menschlichen Gehirn inspiriert ist und aus vernetzten Schichten besteht. Je mehr Schichten, desto „tiefer" das Netz – daher der Begriff Deep Learning.

Verwandt: Deep Learning

No-Code / Low-Code KI

KI-Plattformen, die es ermöglichen, KI-Anwendungen ohne oder mit minimalen Programmierkenntnissen zu erstellen. Tools wie Make (früher Integromat), Zapier oder Microsoft Power Automate fallen in diese Kategorie. No-Code KI demokratisiert den Zugang zur Technologie und ermöglicht es auch kleineren Unternehmen und Einzelpersonen, Prozesse zu automatisieren.

Verwandt: Automatisierung

Normalisierung

Das Umwandeln von Rohdaten in ein einheitliches Format, bevor sie für das Training oder die Inferenz genutzt werden. Dazu gehören das Skalieren numerischer Werte auf einen bestimmten Bereich, das Vereinheitlichen von Texten oder das Bereinigen fehlerhafter Einträge. Gute Normalisierung verbessert die Modellleistung und Trainingsgeschwindigkeit erheblich.

Verwandt: Training / Trainingsdaten

NotebookLM

Ein KI-gestütztes Notizbuch-Tool von Google, das es ermöglicht, eigene Dokumente hochzuladen und dann Fragen dazu zu stellen, Zusammenfassungen zu erstellen oder Zusammenhänge zu erschließen. NotebookLM arbeitet ausschließlich mit den bereitgestellten Quellen und halluziniert keine externen Fakten dazu. Es ist besonders für Recherche und Wissensarbeit geeignet.

Verwandt: RAG (Retrieval-Augmented Generation)

NPU (Neural Processing Unit)

Ein spezialisierter Chip, der für die Ausführung von KI-Berechnungen optimiert ist. Im Gegensatz zu GPUs sind NPUs auf die typischen mathematischen Operationen neuronaler Netze zugeschnitten und verbrauchen dabei weniger Energie. NPUs werden zunehmend in Smartphones, Laptops und Edge-Geräten verbaut, um KI-Anwendungen lokal auszuführen.

Verwandt: Edge AI

O

OCR (Optical Character Recognition)

Automatische Erkennung und Extraktion von Text aus Bildern, Scans und Dokumenten. OCR ist die Grundlage für die Digitalisierung von Papierdokumenten und wird oft mit KI kombiniert, um auch handgeschriebene oder schlecht lesbare Texte zu erkennen.

Verwandt: Computer Vision

Ollama

Ein Open-Source-Tool, das es einfach macht, große Sprachmodelle lokal auf dem eigenen Computer zu betreiben. Mit einem einzigen Befehl kannst du Modelle wie Llama oder Mistral herunterladen und nutzen – ohne Cloud, ohne Datenweitergabe. Ollama ist besonders für Entwickler und datenschutzbewusste Nutzer interessant.

Verwandt: Llama

ONNX (Open Neural Network Exchange)

Ein offenes Dateiformat und Ökosystem für den Austausch von KI-Modellen zwischen verschiedenen Frameworks wie PyTorch und TensorFlow. ONNX ermöglicht es, ein Modell in einem Framework zu trainieren und in einem anderen zu deployen. Es ist ein wichtiger Standard für portable und interoperable KI-Anwendungen.

Verwandt: Modell-Deployment

Open Source KI

KI-Modelle und -Werkzeuge, deren Gewichte und oft auch Trainingsdetails öffentlich zugänglich gemacht werden. Open-Source-Modelle wie Llama oder Mistral können lokal betrieben, angepasst und in eigene Produkte integriert werden. Sie fördern Innovation, senken Einstiegshürden und reduzieren Abhängigkeiten von einzelnen Anbietern.

Verwandt: Llama

Orchestrierung

Die Koordination und Steuerung mehrerer KI-Agenten, Modelle oder Prozessschritte in einem übergeordneten System. Ein Orchestrator entscheidet, welcher Agent welche Aufgabe übernimmt, wie Ergebnisse weitergegeben werden und was bei Fehlern passiert. Frameworks wie LangChain oder AutoGen übernehmen diese Rolle oft automatisiert.

Verwandt: Multi-Agent System

Overfitting

Ein häufiges Problem beim Modelltraining: Das Modell lernt die Trainingsdaten so genau, dass es neue, unbekannte Daten schlechter verarbeitet. Overfitting entsteht oft bei zu wenigen Trainingsdaten oder zu langen Trainingsläufen. Gegenmittel sind mehr Daten, Regularisierung oder der Einsatz von Validierungsdaten zum frühzeitigen Stoppen.

Verwandt: Training / Trainingsdaten

P

Parameter

Die internen Zahlenwerte eines KI-Modells, die während des Trainings angepasst werden. Ein Modell mit mehr Parametern kann komplexere Muster erkennen, benötigt aber auch mehr Rechenleistung und Daten. Moderne große Sprachmodelle haben oft mehrere Milliarden Parameter.

Verwandt: Training / Trainingsdaten

Part-of-Speech Tagging

Das automatische Zuweisen von Wortarten (Substantiv, Verb, Adjektiv usw.) zu jedem Wort in einem Text. POS-Tagging ist ein grundlegender Schritt in der Sprachverarbeitung und hilft KI-Systemen, die grammatikalische Struktur von Sätzen zu verstehen.

Verwandt: Natural Language Processing (NLP)

PEFT (Parameter-Efficient Fine-Tuning)

Eine Sammlung von Methoden, um vortrainierte Modelle mit wenigen trainierbaren Parametern an neue Aufgaben anzupassen. Statt alle Milliarden Parameter zu verändern, werden nur kleine Adapter-Schichten trainiert — das spart erheblich Rechenkosten. LoRA ist die bekannteste PEFT-Methode.

Verwandt: Fine-Tuning

Perplexity

Ein KI-Unternehmen, das eine KI-gestützte Suchmaschine anbietet, die Fragen direkt mit Quellenangaben beantwortet statt nur Links zu liefern. Perplexity kombiniert Websuche mit Sprachmodellen und ist damit ein direkter Konkurrent zu klassischen Suchmaschinen.

Verwandt: Large Language Model (LLM)

Positional Encoding

Ein Mechanismus, der Transformer-Modellen mitteilt, an welcher Position im Text ein bestimmtes Wort steht. Da Transformer alle Tokens gleichzeitig verarbeiten, brauchen sie diese Positionsinformation explizit, um die Reihenfolge von Wörtern zu verstehen.

Verwandt: Transformer

Pre-Training

Die erste und aufwendigste Trainingsphase, bei der ein Modell auf riesigen Textmengen lernt, allgemeines Sprachverständnis aufzubauen. Pre-Training eines großen Sprachmodells dauert Wochen und kostet Millionen Euro — danach wird das Modell per Fine-Tuning auf spezifische Aufgaben spezialisiert.

Verwandt: Fine-Tuning

Precision

Eine Kennzahl, die misst, wie viele der positiv vorhergesagten Fälle tatsächlich positiv sind. Ein Spam-Filter mit hoher Precision markiert kaum legitime E-Mails als Spam. Precision wird oft zusammen mit Recall betrachtet, da die Optimierung des einen häufig auf Kosten des anderen geht.

Verwandt: Klassifikation

Predictive Analytics

Der Einsatz von KI und statistischen Methoden, um auf Basis historischer Daten Vorhersagen zu treffen. Predictive Analytics hilft Unternehmen zu antizipieren, welche Kunden abwandern könnten, wie hoch der Lagerbestand sein sollte oder wann eine Maschine wahrscheinlich ausfällt. Es ist eine der praktischsten und wertvollsten KI-Anwendungen im Unternehmenskontext.

Verwandt: Machine Learning

Predictive Maintenance

Der Einsatz von KI zur vorausschauenden Wartung von Maschinen und Anlagen. Sensordaten werden in Echtzeit analysiert, um Ausfälle vorherzusagen, bevor sie passieren — das vermeidet teure Produktionsstopps. Typische Anwendungen sind Produktionsanlagen, Fahrzeugflotten und Windkraftanlagen.

Verwandt: Predictive Analytics

Prompt

Die Anweisung oder Frage, die du an eine KI richtest, um eine Antwort zu erhalten. Die Qualität deines Prompts bestimmt maßgeblich die Qualität der KI-Antwort.

Verwandt: Prompt Engineering

Prompt Chaining

Eine Technik, bei der die Ausgabe eines Prompts als Eingabe für den nächsten Prompt dient. So lassen sich komplexe Aufgaben in überschaubare Schritte aufteilen und die Qualität jedes Teilschritts besser kontrollieren. Prompt Chaining ist ein Grundbaustein für KI-Agenten und automatisierte Workflows.

Verwandt: KI-Agent

Prompt Engineering

Die Kunst, Prompts so zu formulieren, dass die KI optimale Ergebnisse liefert. Gutes Prompt Engineering ist heute eine der wertvollsten praktischen KI-Fähigkeiten.

Verwandt: Prompt

Prompt-Injection

Ein Angriff, bei dem böswillige Anweisungen in einen Prompt eingeschleust werden, um das Verhalten einer KI zu manipulieren. Beispielsweise könnte ein Nutzer versteckte Befehle in einem Dokument platzieren, das die KI verarbeiten soll. Prompt-Injection ist eine der wichtigsten Sicherheitsbedrohungen für KI-Anwendungen.

Verwandt: Halluzination

Prompt-Template

Eine wiederverwendbare Vorlage für Prompts, in die variable Inhalte eingefügt werden. Statt jeden Prompt von Grund auf zu formulieren, definierst du einmal eine Struktur mit Platzhaltern. Prompt-Templates sind die Basis für konsistente, skalierbare KI-Anwendungen in Unternehmen.

Verwandt: Prompt Engineering

Provenienz

Die nachvollziehbare Herkunft und Entstehungsgeschichte von KI-Trainingsdaten und Modellergebnissen. Provenienz ist wichtig für Compliance, Audit-Anforderungen und die Überprüfung, ob ein Modell mit rechtmäßig erworbenen Daten trainiert wurde. Im Kontext des EU AI Acts wird Daten-Provenienz zunehmend zur Pflicht.

Verwandt: EU AI Act

Pruning

Eine Methode zur Modell-Komprimierung, bei der unwichtige Verbindungen oder Neuronen aus einem trainierten Netz entfernt werden. Pruning reduziert die Modellgröße und beschleunigt die Inferenz, ohne die Leistung stark zu verschlechtern. Es ist eine wichtige Technik, um KI-Modelle auf ressourcenbeschränkten Geräten einsetzbar zu machen.

Verwandt: Modell-Komprimierung

Q

Q-Learning

Ein Algorithmus aus dem Bereich Reinforcement Learning, bei dem ein Agent lernt, in welchen Situationen welche Aktionen den größten langfristigen Nutzen bringen. Das "Q" steht für den Qualitätswert einer Aktion in einem bestimmten Zustand. Q-Learning ist die Grundlage vieler moderner RL-Ansätze und wurde z. B. beim Training von Spielagenten eingesetzt.

Verwandt: Reinforcement Learning

Quantisierung

Eine Technik zur Modell-Komprimierung, bei der die Zahlengenauigkeit der Modellparameter reduziert wird (z. B. von 32-Bit auf 8-Bit oder 4-Bit). Das spart Speicher und beschleunigt die Berechnung erheblich — mit meist minimalem Qualitätsverlust. Quantisierung ermöglicht es, große Modelle auf Consumer-Hardware oder Smartphones zu betreiben.

Verwandt: Modell-Komprimierung

R

RAG (Retrieval-Augmented Generation)

Eine Technik, bei der die KI externe Wissensquellen nutzt, um bessere Antworten zu geben. RAG reduziert Halluzinationen und ermöglicht es, KI mit aktuellem oder unternehmensinternem Wissen zu verbinden.

Verwandt: Halluzination

Random Forest

Ein Machine-Learning-Verfahren, das viele Entscheidungsbäume kombiniert und deren Ergebnisse zusammenführt. Durch diese Ensemble-Methode ist Random Forest robuster gegen Overfitting als einzelne Entscheidungsbäume und erzielt in der Praxis oft sehr gute Ergebnisse bei tabellarischen Daten.

Verwandt: Machine Learning

ReAct

Ein Prompting-Framework, bei dem ein KI-Modell abwechselnd nachdenkt (Reasoning) und handelt (Acting). Das Modell plant seinen nächsten Schritt, führt eine Aktion aus (z. B. eine Tool-Nutzung), beobachtet das Ergebnis und plant dann weiter. ReAct ist ein Standardansatz für zuverlässige KI-Agenten.

Verwandt: KI-Agent

Reasoning Model

Ein Sprachmodell, das vor seiner Antwort einen expliziten Denkprozess durchläuft — oft als "Chain of Thought" sichtbar. Modelle wie OpenAIs o1/o3 oder DeepSeek-R1 sind auf diesen schrittweisen Denkprozess hin trainiert und schneiden bei logischen, mathematischen und wissenschaftlichen Aufgaben deutlich besser ab als klassische Sprachmodelle.

Verwandt: Large Language Model (LLM)

Recall

Eine Kennzahl, die misst, wie viele der tatsächlich positiven Fälle das Modell auch als positiv erkannt hat. Ein Krebserkennungssystem sollte hohen Recall haben — lieber einen falsch-positiven Alarm als einen echten Fall zu übersehen. Recall wird zusammen mit Precision verwendet, um die Gesamtleistung eines Klassifikators zu bewerten.

Verwandt: Klassifikation

Red Teaming

Das systematische Testen von KI-Systemen durch ein Team, das versucht, Schwachstellen, unerwünschte Verhaltensweisen und Sicherheitslücken aufzudecken. Analog zu Penetrationstests in der IT-Sicherheit werden dabei gezielt Angriffe simuliert. Red Teaming ist ein wichtiger Bestandteil verantwortungsvoller KI-Entwicklung vor dem öffentlichen Release.

Verwandt: Bias (Verzerrung)

Regression

Ein Machine-Learning-Verfahren zur Vorhersage numerischer Werte — im Gegensatz zur Klassifikation, die Kategorien vorhersagt. Typische Anwendungen sind Preisprognosen, Umsatzvorhersagen oder die Schätzung von Lieferzeiten. Lineare Regression ist das einfachste Beispiel, aber es gibt auch komplexe neuronale Regressionsmodelle.

Verwandt: Supervised Learning

Regularisierung

Techniken, die verhindern, dass ein Modell die Trainingsdaten auswendig lernt (Overfitting), indem die Modellkomplexität eingeschränkt wird. Gängige Methoden sind L1/L2-Regularisierung (Bestrafung großer Gewichte) und Dropout. Regularisierung verbessert die Generalisierungsfähigkeit des Modells auf unbekannte Daten.

Verwandt: Training / Trainingsdaten

Reinforcement Learning

Eine Lernmethode, bei der eine KI durch Belohnung und Bestrafung lernt – ähnlich wie ein Kind, das lernt, Fahrrad zu fahren. Die KI probiert verschiedene Aktionen aus und optimiert ihr Verhalten, um eine maximale Belohnung zu erzielen. Reinforcement Learning wird eingesetzt für Spielstrategien (AlphaGo), Robotik und das Training von Sprachmodellen (RLHF).

Verwandt: Machine Learning

ReLU

Eine der meistgenutzten Aktivierungsfunktionen in neuronalen Netzen: Negative Eingabewerte werden auf null gesetzt, positive bleiben unverändert. Diese einfache Funktion ermöglicht es neuronalen Netzen, nicht-lineare Zusammenhänge zu lernen, und ist effizienter zu berechnen als ältere Funktionen wie Sigmoid.

Verwandt: Neuronales Netz

Responsible AI

Ein Rahmenwerk und eine Praxis, die sicherstellt, dass KI-Systeme ethisch, fair, transparent und im Einklang mit gesellschaftlichen Werten entwickelt und eingesetzt werden. Responsible AI umfasst Themen wie Bias-Vermeidung, Erklärbarkeit, Datenschutz und Rechenschaftspflicht. Es ist zunehmend auch eine regulatorische Anforderung, etwa durch den EU AI Act.

Verwandt: EU AI Act

Reward Model

Ein speziell trainiertes Modell, das bewertet, wie gut eine KI-Ausgabe ist — und damit als Signal für Reinforcement Learning dient. Beim RLHF-Training bewerten Menschen zunächst Antwortpaare, woraus ein Reward Model trainiert wird. Dieses Reward Model ersetzt dann die menschliche Bewertung für alle weiteren Trainingsiterationen.

Verwandt: RLHF (Reinforcement Learning from Human Feedback)

RLAIF

Reinforcement Learning from AI Feedback — eine Variante von RLHF, bei der KI-Modelle statt menschlicher Bewerter das Feedback geben. Das skaliert deutlich besser als menschliches Feedback und wird eingesetzt, wenn menschliche Bewertung zu teuer oder zu langsam ist. RLAIF birgt jedoch das Risiko, die Präferenzen des bewertenden Modells zu verstärken statt menschliche Werte.

Verwandt: RLHF (Reinforcement Learning from Human Feedback)

RLHF (Reinforcement Learning from Human Feedback)

Eine Trainingsmethode, bei der Menschen KI-Antworten bewerten und das Modell dadurch lernt, menschliche Präferenzen besser zu erfüllen. RLHF ist der Schlüsselmechanismus hinter dem hilfreichen und sicheren Verhalten von ChatGPT und Claude. Ohne RLHF wären Sprachmodelle zwar sprachlich fähig, aber schwerer zu kontrollieren.

Verwandt: Reinforcement Learning

RNN (Recurrent Neural Network)

Eine Netzwerkarchitektur, die Sequenzen verarbeitet, indem sie Informationen über einen internen Zustand von Schritt zu Schritt weitergibt. RNNs waren vor der Transformer-Ära der Standard für Sprachverarbeitung und Zeitreihendaten. Sie leiden jedoch unter dem Problem verschwindender Gradienten und wurden für die meisten Anwendungen durch Transformer ersetzt.

Verwandt: Transformer

Robo-Advisor

Eine automatisierte Anlageberatungsplattform, die KI nutzt, um auf Basis von Risikobereitschaft und Anlagezielen personalisierte Portfolios zu erstellen und zu verwalten. Bekannte Beispiele sind Scalable Capital und Quirion. Robo-Advisor sind günstiger als traditionelle Vermögensverwalter und ab kleinen Anlagebeträgen nutzbar.

Verwandt: Predictive Analytics

Robustheit

Die Fähigkeit eines KI-Modells, auch bei unerwarteten, verrauschten oder leicht veränderten Eingaben zuverlässige Ergebnisse zu liefern. Ein robustes Modell lässt sich nicht durch kleine Störungen (z. B. Tippfehler, leicht veränderte Bilder) täuschen. Robustheit ist besonders kritisch in sicherheitsrelevanten Anwendungen wie medizinischer Diagnostik oder autonomem Fahren.

Verwandt: Bias (Verzerrung)

Role Prompting

Eine Prompt-Engineering-Technik, bei der der KI eine bestimmte Rolle zugewiesen wird ("Du bist ein erfahrener Steuerberater..."). Das beeinflusst Ton, Perspektive und Tiefe der Antworten. Role Prompting ist einfach umzusetzen und oft überraschend wirksam zur Verbesserung von Antwortqualität.

Verwandt: Prompt Engineering

S

Sampling

Der Prozess, mit dem ein Sprachmodell das nächste Wort (Token) aus einer Wahrscheinlichkeitsverteilung auswählt. Statt immer das wahrscheinlichste Token zu wählen (Greedy Decoding), führt Sampling zu abwechslungsreicheren Texten. Parameter wie Temperatur, Top-K und Top-P steuern, wie kreativ oder konservativ das Sampling ist.

Verwandt: Large Language Model (LLM)

Scaling Laws

Empirisch beobachtete Gesetzmäßigkeiten, die beschreiben, wie die Leistung von KI-Modellen mit der Menge an Parametern, Trainingsdaten und Rechenleistung skaliert. Scaling Laws haben die Entwicklung großer Sprachmodelle geprägt, da sie vorhersagen, dass größere Modelle mit mehr Daten systematisch besser werden. Forscher nutzen sie, um Trainingskosten zu optimieren.

Verwandt: Foundation Model

Self-Attention

Der Kernmechanismus im Transformer, bei dem jedes Wort im Text auf alle anderen Wörter "achtet" und deren Relevanz gewichtet. Self-Attention ermöglicht es Modellen, Bezüge zwischen weit entfernten Wörtern im Text zu verstehen. Die parallele Verarbeitung aller Tokens macht Transformer deutlich effizienter trainierbar als RNNs.

Verwandt: Attention

Self-Consistency

Eine Technik, bei der dasselbe Problem mehrfach mit Sampling gelöst und dann die häufigste Antwort gewählt wird. Self-Consistency verbessert die Zuverlässigkeit bei Reasoning-Aufgaben deutlich, ist aber rechenintensiver als ein einzelner Durchlauf. Es ist eine Form des Ensemble-Ansatzes speziell für Sprachmodelle.

Verwandt: Sampling

Self-Supervised Learning

Eine Lernmethode, bei der die KI ihre eigenen Lernziele aus ungelabelten Daten ableitet — zum Beispiel, indem sie lernt, das nächste Wort in einem Text vorherzusagen. Self-Supervised Learning ist der Grund, warum große Sprachmodelle mit riesigen Mengen an Rohtexten trainiert werden können, ohne teure manuelle Beschriftung.

Verwandt: Supervised Learning

Semantische Ähnlichkeit

Ein Maß dafür, wie ähnlich zwei Texte inhaltlich sind — unabhängig von den genauen verwendeten Wörtern. Semantische Ähnlichkeit wird berechnet, indem Texte in Embeddings umgewandelt und deren Abstand im Vektorraum gemessen wird. Sie ist die Grundlage für semantische Suche, Duplikaterkennung und Empfehlungssysteme.

Verwandt: Embedding

Semantische Suche

Eine Suchmethode, die die inhaltliche Bedeutung einer Anfrage versteht statt nur nach Stichwörtern zu suchen. Eine semantische Suche nach "günstiges Hotel am Meer" findet auch Ergebnisse mit "preiswerte Unterkunft an der Küste". Sie basiert auf Embeddings und Vektordatenbanken und ist deutlich leistungsfähiger als klassische Volltextsuche.

Verwandt: Vektordatenbank

Semi-Supervised Learning

Eine Lernmethode, die wenige gelabelte Daten mit vielen ungelabelten kombiniert. In der Praxis sind gelabelte Trainingsdaten teuer und knapp — Semi-Supervised Learning nutzt die Struktur ungelabelter Daten, um mit weniger Annotations-Aufwand gute Modelle zu trainieren.

Verwandt: Supervised Learning

Sentiment-Analyse

Die automatische Erkennung von Meinungen, Stimmungen und Einstellungen in Texten. Typische Anwendungen sind die Auswertung von Kundenbewertungen, Social-Media-Monitoring und die Analyse von Feedback-Formularen. Moderne Sentiment-Analysen gehen über simpel positiv/negativ hinaus und erkennen auch Aspekte und Emotionsgruppen.

Verwandt: Natural Language Processing (NLP)

Sequence-to-Sequence (Seq2Seq)

Eine Modellarchitektur, die eine Eingabesequenz in eine Ausgabesequenz umwandelt — ideal für Übersetzung, Zusammenfassung und Konversationssysteme. Seq2Seq-Modelle bestehen aus einem Encoder, der die Eingabe versteht, und einem Decoder, der die Ausgabe generiert. Diese Architektur war ein Vorläufer moderner Transformer-Modelle.

Verwandt: Transformer

Skalierung

Die Erhöhung der Modellgröße, Datenmenge oder Rechenleistung, um bessere KI-Leistung zu erzielen. Skalierung ist das zentrale Entwicklungsparadigma moderner KI — mehr Parameter und mehr Daten führen empirisch zu besseren Modellen. Die Kosten und der Energieverbrauch skalieren jedoch ebenfalls stark mit.

Verwandt: Foundation Model

Skip Connection

Eine direkte Verbindung in neuronalen Netzen, die Schichten überspringt und Informationen ungefiltert weiterleitet. Skip Connections lösen das Problem verschwindender Gradienten bei sehr tiefen Netzen und sind der Schlüssel zur Architektur von ResNets. Auch Transformer nutzen Skip Connections, um das Training stabiler zu machen.

Verwandt: Neuronales Netz

Softmax

Eine mathematische Funktion, die einen Vektor von Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt, die sich auf 1 summiert. Softmax wird in der letzten Schicht von Klassifikationsmodellen und bei der Token-Auswahl in Sprachmodellen verwendet. Sie bestimmt, wie sicher sich das Modell bei seiner Vorhersage ist.

Verwandt: Sampling

Sora

OpenAIs Text-to-Video-Modell, das aus Textbeschreibungen realistische und kreative Videos generiert. Sora wurde Anfang 2024 vorgestellt und zeigt beeindruckende Fähigkeiten bei physikalisch plausiblen Szenen. Es markiert einen Durchbruch in der generativen Video-KI, auch wenn kommerzielle Verfügbarkeit noch eingeschränkt ist.

Verwandt: Generative KI

Spracherkennung (ASR)

Die automatische Umwandlung gesprochener Sprache in Text. Automatic Speech Recognition (ASR) wird in Sprachassistenten, Transkriptionssoftware und barrierefreien Interfaces eingesetzt. Moderne ASR-Systeme wie Whisper erreichen menschliche Genauigkeit und unterstützen viele Sprachen.

Verwandt: Natural Language Processing (NLP)

Sprachmodell

Ein KI-Modell, das die statistische Struktur von Sprache erlernt und Text generieren oder vervollständigen kann. Sprachmodelle sind die Grundlage von Chatbots, Textzusammenfassungen und KI-Schreibassistenten. Große Sprachmodelle (LLMs) wie GPT-4 oder Claude haben diesen Ansatz auf ein neues Niveau gehoben.

Verwandt: Large Language Model (LLM)

Stable Diffusion

Ein Open-Source-Bildgenerierungsmodell, das auf der Diffusion-Technologie basiert und lokal auf eigener Hardware betrieben werden kann. Im Gegensatz zu proprietären Diensten wie DALL-E ist Stable Diffusion frei verfügbar und stark anpassbar. Es hat eine große Community von Entwicklern und Künstlern hervorgebracht, die das Modell für vielfältige Zwecke einsetzen.

Verwandt: Diffusion Model

Stemming

Die algorithmische Reduzierung eines Wortes auf seinen Wortstamm, indem Endungen abgeschnitten werden. "laufend", "gelaufen" und "Läufer" werden so auf "lauf" zurückgeführt. Stemming ist ein einfaches NLP-Vorverarbeitungsverfahren, das die Trefferquote bei Stichwortsuchen verbessert, aber weniger präzise ist als Lemmatisierung.

Verwandt: Natural Language Processing (NLP)

Structured Output

Die Fähigkeit eines Sprachmodells, seine Antworten in einem vordefinierten Format wie JSON oder XML zu liefern. Structured Output ist entscheidend für die zuverlässige Integration von KI in Software-Systeme, da maschinenlesbare Ausgaben direkt weiterverarbeitet werden können. Moderne Modelle wie GPT-4 unterstützen Structured Output nativ über API-Parameter.

Verwandt: API

Supervised Learning

Maschinelles Lernen mit gelabelten Trainingsdaten – die KI lernt aus Beispielen mit bekannten Ergebnissen. Zum Beispiel: Bilder von Katzen und Hunden mit der richtigen Beschriftung.

Verwandt: Unsupervised Learning

Synthetic Data

Künstlich generierte Daten, die echte Daten simulieren, ohne echte Personen oder vertrauliche Informationen zu enthalten. Synthetic Data wird eingesetzt, wenn echte Daten knapp, teuer oder datenschutzrechtlich problematisch sind. Moderne KI-Modelle können qualitativ hochwertige synthetische Datensätze erzeugen, die für das Training anderer Modelle geeignet sind.

Verwandt: Training / Trainingsdaten

System-Prompt

Eine versteckte Anweisung, die an das Sprachmodell übergeben wird, bevor der Nutzer mit ihm interagiert. System-Prompts definieren die Persönlichkeit, den Kontext und die Einschränkungen des KI-Assistenten — z. B. "Du bist ein Kundenservice-Bot für Firma X und beantwortest nur Fragen zu unseren Produkten". Nutzer sehen den System-Prompt normalerweise nicht.

Verwandt: Prompt

T

Temperatur

Ein Parameter, der steuert, wie kreativ oder deterministisch ein Sprachmodell antwortet. Bei niedriger Temperatur (nahe 0) wählt das Modell fast immer das wahrscheinlichste nächste Wort und wird vorhersehbar. Bei hoher Temperatur werden auch unwahrscheinlichere Wörter gewählt — die Antworten werden kreativer, aber auch weniger zuverlässig.

Verwandt: Sampling

Text-to-Image

KI-Systeme, die aus Textbeschreibungen Bilder generieren. Midjourney, DALL-E und Stable Diffusion sind die bekanntesten Vertreter. Text-to-Image-Modelle basieren meist auf Diffusion-Technologie und haben die kreative Bildproduktion demokratisiert, stellen aber auch neue Fragen zu Urheberrecht und Desinformation.

Verwandt: Diffusion Model

Text-to-Speech (TTS)

Die automatische Umwandlung von Text in gesprochene Sprache. Moderne TTS-Systeme wie ElevenLabs oder OpenAI TTS klingen kaum noch von menschlichen Stimmen zu unterscheiden und können verschiedene Stimmen, Emotionen und Sprachstile imitieren. TTS wird für Barrierefreiheit, Sprachassistenten und Audiobook-Produktion eingesetzt.

Verwandt: Natural Language Processing (NLP)

Text-to-Video

KI-Systeme, die aus Textbeschreibungen Videos generieren. Neben Sora (OpenAI) gibt es Runway, Pika und andere Anbieter. Text-to-Video ist noch junger als Text-to-Image und hat bei langen, physikalisch kohärenten Videos noch Schwächen — entwickelt sich aber rasant.

Verwandt: Generative KI

Textklassifikation

Die automatische Zuordnung von Texten zu vordefinierten Kategorien. Typische Anwendungen sind Spam-Erkennung, Sentiment-Analyse, Themen-Tagging und die Klassifikation von Support-Tickets. Textklassifikation ist eine der häufigsten NLP-Aufgaben in Unternehmen.

Verwandt: Klassifikation

TF-IDF

Ein klassisches Verfahren aus dem Information Retrieval, das die Wichtigkeit eines Worts in einem Dokument relativ zu einer Dokumentensammlung berechnet. Häufige Wörter in einem Dokument, die in anderen Dokumenten selten vorkommen, erhalten hohe Werte. TF-IDF war der Standard für Textsuche vor dem Aufkommen von Embeddings und ist bei kleinen Datenmengen immer noch nützlich.

Verwandt: Embedding

Themenmodellierung

Eine unüberwachte Methode zur automatischen Entdeckung latenter Themen in einer Textsammlung. Algorithmen wie LDA oder neuere Embedding-basierte Ansätze gruppieren Dokumente nach inhaltlichen Schwerpunkten, ohne dass die Themen vorher bekannt sein müssen. Themenmodellierung wird für die Analyse großer Dokumentenbestände, Marktforschung und Content-Strategie eingesetzt.

Verwandt: Clustering

Token

Die kleinste Einheit, in die ein Text für die KI-Verarbeitung zerlegt wird (ungefähr ein Wort oder Wortteil). Bei ChatGPT kostet jede Anfrage eine bestimmte Anzahl Tokens – das ist die Basis für die Preisgestaltung. Ein einfacher Text von 1.000 Wörtern entspricht etwa 1.300 bis 1.500 Tokens.

Verwandt: Large Language Model (LLM)

Tokenisierung

Der Prozess, bei dem ein Text in einzelne Tokens aufgeteilt wird, bevor er von einem Sprachmodell verarbeitet werden kann. Tokenisierer wie BPE (Byte-Pair Encoding) zerlegen Text in häufige Zeichenfolgen — "unglaublich" könnte z. B. in "un", "glaub", "lich" aufgeteilt werden. Die Art der Tokenisierung beeinflusst, wie gut ein Modell mit bestimmten Sprachen oder Fachvokabular umgehen kann.

Verwandt: Token

Tool Use

Die Fähigkeit eines KI-Modells, externe Werkzeuge wie Websuche, Taschenrechner, Kalender oder APIs aufzurufen. Tool Use ermöglicht es Sprachmodellen, über ihre trainierten Kenntnisse hinauszugehen und aktuelle Informationen abzurufen oder Berechnungen zuverlässig durchzuführen. Es ist ein Kernbaustein für KI-Agenten.

Verwandt: KI-Agent

Top-K Sampling

Eine Sampling-Strategie, bei der das nächste Token nur aus den K wahrscheinlichsten Kandidaten ausgewählt wird. Mit K=50 wählt das Modell aus den 50 plausibelsten nächsten Wörtern aus. Top-K Sampling verhindert, dass sehr unwahrscheinliche Tokens ausgewählt werden, ohne die Kreativität zu stark einzuschränken.

Verwandt: Sampling

Top-P / Nucleus Sampling

Eine adaptive Sampling-Strategie, bei der aus dem kleinsten Set von Tokens gewählt wird, dessen kumulative Wahrscheinlichkeit P übersteigt. Bei P=0,9 werden die wahrscheinlichsten Tokens ausgewählt, die zusammen 90% der Wahrscheinlichkeit abdecken. Top-P passt sich dynamisch an — bei sicheren Vorhersagen werden weniger Kandidaten berücksichtigt als bei unsicheren.

Verwandt: Sampling

TPU

Tensor Processing Unit — von Google entwickelter Spezialchip für KI-Berechnungen. TPUs sind für Matrix-Multiplikationen optimiert, die das Herzstück von Deep-Learning-Operationen bilden. Sie sind in Google Cloud verfügbar und wurden für das Training von Googles eigenen Modellen wie Gemini eingesetzt.

Verwandt: GPU

Training / Trainingsdaten

Training ist der Prozess, bei dem eine KI aus Daten lernt und ihre Parameter anpasst. Trainingsdaten sind die Beispiele, aus denen die KI lernt – ihre Qualität und Vielfalt bestimmen maßgeblich, wie gut das fertige Modell ist. Das Training großer KI-Modelle dauert Wochen und verbraucht enorme Rechnerkapazitäten.

Verwandt: Fine-Tuning

Trainingsdaten-Vergiftung

Ein Angriff, bei dem böswillige Daten gezielt in den Trainingsdatensatz eingeschleust werden, um das Verhalten eines KI-Modells zu manipulieren. Dadurch kann ein Angreifer ein Modell dazu bringen, in bestimmten Situationen falsch oder gefährlich zu reagieren. Trainingsdaten-Vergiftung ist besonders schwer zu erkennen, da die Schwachstelle im Modell selbst steckt.

Verwandt: Bias (Verzerrung)

Transfer Learning

Eine Methode, bei der ein auf einer Aufgabe vortrainiertes Modell für eine andere, verwandte Aufgabe weiterverwendet wird. Statt von Grund auf zu trainieren, wird das vorhandene Wissen übertragen und feinabgestimmt — das spart enorm viel Zeit und Daten. Transfer Learning ist der Grund, warum Fine-Tuning von Basismodellen so effektiv ist.

Verwandt: Fine-Tuning

Transformer

Die Architektur hinter modernen Sprachmodellen wie GPT und Claude. Transformer sind besonders gut darin, Kontext und Bedeutung in Texten zu verstehen – der Durchbruch kam 2017 mit dem Paper "Attention is All You Need".

Verwandt: Large Language Model (LLM)

U

Underfitting

Der gegenteilige Fehler zu Overfitting: Das Modell ist zu einfach, um die Muster in den Trainingsdaten zu erfassen, und macht sowohl auf Trainings- als auch auf Testdaten viele Fehler. Underfitting entsteht oft durch zu wenig Trainingszeit, zu geringe Modellkomplexität oder ungenügend relevante Features. Die Lösung ist meist ein komplexeres Modell oder mehr Training.

Verwandt: Training / Trainingsdaten

Unsupervised Learning

Maschinelles Lernen ohne gelabelte Daten – die KI findet selbstständig Muster. Zum Beispiel: Kundensegmentierung, bei der die KI selbst Gruppen ähnlicher Kunden erkennt.

Verwandt: Supervised Learning

V

VAE (Variational Autoencoder)

Eine Generativmodell-Architektur, die Daten in einen komprimierten latenten Raum kodiert und daraus neue Variationen erzeugen kann. Im Gegensatz zu einfachen Autoencodern hat der latente Raum beim VAE eine probabilistische Struktur, die kontrollierte Generierung ermöglicht. VAEs sind Vorläufer moderner Diffusionsmodelle und werden für Bildgenerierung und Daten-Augmentierung eingesetzt.

Verwandt: GAN (Generative Adversarial Network)

Vektor

Eine Liste von Zahlen, die einen Datenpunkt im mehrdimensionalen Raum repräsentiert. In der KI werden Texte, Bilder und andere Daten in Vektoren (Embeddings) umgewandelt, damit mathematische Operationen darauf angewendet werden können. Ähnliche Inhalte haben ähnliche Vektoren — das ist die Grundlage für semantische Suche.

Verwandt: Embedding

Vektordatenbank

Eine spezialisierte Datenbank, die Embeddings speichert und blitzschnell ähnliche Einträge findet. Vektordatenbanken sind die technische Grundlage für RAG-Systeme und semantische Suche in Unternehmen. Pinecone, Weaviate und Qdrant sind bekannte Anbieter; auch klassische Datenbanken wie PostgreSQL bieten mittlerweile Vektorsuchfunktionen.

Verwandt: RAG (Retrieval-Augmented Generation)

Vektorraum

Der mehrdimensionale mathematische Raum, in dem Embeddings verortet sind. Im Vektorraum eines Sprachmodells liegen semantisch ähnliche Konzepte nah beieinander — "König" minus "Mann" plus "Frau" ergibt annähernd "Königin". Die Geometrie des Vektorraums kodiert semantische Beziehungen zwischen Konzepten.

Verwandt: Embedding

Verlustfunktion

Eine mathematische Funktion, die misst, wie weit die Vorhersagen eines Modells von den tatsächlichen Zielwerten entfernt sind. Während des Trainings versucht das Modell, diesen Verlust zu minimieren. Die Wahl der richtigen Verlustfunktion ist entscheidend — Cross-Entropy wird für Klassifikation verwendet, Mean Squared Error für Regression.

Verwandt: Training / Trainingsdaten

Vibe Coding

Ein informeller Begriff für die Praxis, KI-Assistenten wie Copilot oder Claude zum Programmieren zu verwenden, ohne jeden Codezeile vollständig zu verstehen. Der Begriff wurde 2025 von Andrej Karpathy geprägt und beschreibt einen Paradigmenwechsel: Entwickler beschreiben, was sie wollen, und die KI generiert den Code. Kritiker warnen vor technischen Schulden und Sicherheitslücken in KI-generiertem Code.

Verwandt: Generative KI

Vision Language Model (VLM)

Ein multimodales Modell, das sowohl Bilder als auch Text versteht und kombiniert verarbeiten kann. VLMs können Bilder beschreiben, Fragen über Bilder beantworten oder Text und Bild gemeinsam analysieren. Bekannte Beispiele sind GPT-4V, Gemini und Claude — sie ermöglichen Anwendungen wie die Analyse von Dokumenten mit gemischten Bild-Text-Inhalten.

Verwandt: Computer Vision

VRAM

Video Random Access Memory — der Arbeitsspeicher einer Grafikkarte (GPU), der für KI-Berechnungen genutzt wird. VRAM ist der kritische Engpass beim lokalen Betrieb großer KI-Modelle: Ein 7-Milliarden-Parameter-Modell benötigt je nach Quantisierung 4–14 GB VRAM. Consumer-GPUs haben 8–24 GB VRAM; für das Training großer Modelle werden GPUs mit 40–80 GB VRAM verwendet.

Verwandt: GPU

W

Wasserzeichen (KI)

Technische Methoden, um KI-generierte Inhalte unsichtbar zu markieren und später als KI-generiert identifizierbar zu machen. Für Texte werden bestimmte Token-Muster eingebettet, für Bilder unsichtbare Pixel-Muster. Wasserzeichen sollen bei der Bekämpfung von Desinformation und der Kennzeichnungspflicht nach dem EU AI Act helfen, sind aber noch nicht vollständig manipulationssicher.

Verwandt: EU AI Act

Whisper

OpenAIs Open-Source-Spracherkennungsmodell, das Sprache in über 90 Sprachen transkribiert und übersetzt. Whisper ist bekannt für seine hohe Genauigkeit auch bei Hintergrundgeräuschen und Akzenten und kann lokal betrieben werden. Es ist die technische Grundlage vieler Transkriptions- und Untertitelgenerierungs-Dienste.

Verwandt: Natural Language Processing (NLP)

Word2Vec

Ein einflussreiches Embedding-Verfahren aus dem Jahr 2013, das Wörter in Vektoren umwandelt und semantische Beziehungen im Vektorraum kodiert. Word2Vec zeigte erstmals beeindruckend, dass Sprachstruktur geometrisch abgebildet werden kann. Es ist heute von moderneren Embedding-Modellen abgelöst worden, hat aber das Feld grundlegend geprägt.

Verwandt: Embedding

Z

Zero-Shot Prompting

Das Stellen einer Aufgabe an ein KI-Modell, ohne Beispiele mitzuliefern — die KI soll die Aufgabe allein aus der Beschreibung verstehen. Große Sprachmodelle beherrschen Zero-Shot-Prompting erstaunlich gut, da sie während des Trainings unzählige Aufgabentypen gesehen haben. Im Vergleich dazu liefert Few-Shot Prompting mit einigen Beispielen oft noch bessere Ergebnisse.

Verwandt: Prompt Engineering

Zusammenfassung

Eine der häufigsten und wertvollsten KI-Anwendungen: das automatische Verdichten langer Texte auf die wesentlichen Kernaussagen. Moderne Sprachmodelle können Artikel, Berichte, Meeting-Protokolle und juristische Dokumente in Sekunden zusammenfassen. Qualität und Treue zur Quelle variieren je nach Modell — Halluzinationen können bei Zusammenfassungen kritisch sein.

Verwandt: Large Language Model (LLM)

Dieses Glossar als PDF speichern

Alle 244 Begriffe in einer druckoptimierten Version – zum Offline-Nachschlagen.

Als PDF speichern

Ein Begriff fehlt?

Das Glossar wächst ständig. Wenn du einen Begriff vermisst, schreib uns – wir nehmen ihn auf.

Begriff vorschlagen
Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar