KI & ML Glossar
Umfassendes Wörterbuch für Begriffe der künstlichen Intelligenz und des maschinellen Lernens. Von grundlegenden Konzepten bis zu modernsten Technologien.
A
Agentic AI
Agentic AI bezeichnet KI-Systeme, die darauf ausgelegt sind, autonom zu handeln, Entscheidungen zu treffen und Ziele mit minimaler menschlicher Überwachung zu verfolgen, was die nächste Evolution der KI-Fähigkeiten darstellt.
AI Agents
AI Agents sind autonome Systeme, die ihre Umgebung wahrnehmen, Entscheidungen treffen und Aktionen ausführen, um spezifische Ziele mit KI-Fähigkeiten zu erreichen.
Aktivierung
Aktivierungen sind die berechneten Ausgangswerte eines Neurons und bestimmen, wie stark Informationen im Netzwerk weitergegeben werden.
Aktivierungsfunktion
Eine Aktivierungsfunktion ist eine mathematische Funktion, die auf neuronale Netzwerkknoten angewendet wird, um deren Ausgabe zu bestimmen, Nicht-Linearität einzuführen und Netzwerken zu ermöglichen, komplexe Muster zu lernen.
Artificial General Intelligence
Artificial General Intelligence bezieht sich auf KI-Systeme mit menschlichen kognitiven Fähigkeiten über alle Domänen hinweg, die Intelligenz so flexibel verstehen, lernen und anwenden können wie Menschen.
Aufmerksamkeitsmechanismus
Aufmerksamkeitsmechanismus ist eine neuronale Netzwerktechnik, die es Modellen ermöglicht, sich auf relevante Teile von Eingabedaten zu fokussieren und die Leistung bei Sequenz-zu-Sequenz-Aufgaben zu verbessern.
Auslastung (Utilization)
Utilization beschreibt, wie stark Hardware-Ressourcen wie GPU, CPU oder Speicher tatsächlich genutzt werden.
Autoencoder
Ein Autoencoder ist eine unüberwachte neuronale Netzwerkarchitektur, die effiziente Datenrepräsentationen lernt, indem sie Eingabedaten komprimiert und dann rekonstruiert.
B
Backpropagation
Backpropagation ist ein überwachtes Lernalgorithmus, der zum Training neuronaler Netzwerke verwendet wird, indem Gradienten der Verlustfunktion bezüglich Netzwerkgewichten durch Rückwärtspass-Berechnung kalkuliert werden.
Bandbreite
Bandbreite beschreibt, wie viele Daten pro Sekunde ein Netzwerk, Speicherbus oder Beschleuniger übertragen kann.
Batch Normalization
Batch Normalization ist eine Technik, die Schichteingaben normalisiert, indem Aktivierungen angepasst und skaliert werden, wodurch Trainingsstabilität verbessert und schnellere Konvergenz in tiefen neuronalen Netzwerken ermöglicht wird.
BERT
BERT (Bidirectional Encoder Representations from Transformers) ist ein bahnbrechendes Sprachmodell, das die NLP durch bidirektionales Kontextverständnis revolutionierte.
Beschleuniger (Accelerator)
Spezialisierte Hardware, die KI- und ML-Workloads schneller und energieeffizienter verarbeitet als herkömmliche CPUs.
C
Cache
Ein Cache speichert häufig benötigte Daten oder Berechnungen zwischen, um Zugriffe drastisch zu beschleunigen.
Chain of Thought (CoT)
Chain-of-Thought-Prompts ermutigen Sprachmodelle, ihre Zwischenschritte auszuschreiben und dadurch präzisere Antworten zu liefern.
Chatbot
Ein Chatbot ist ein KI-gestützter Konversationsagent, der menschenähnliche Dialoge durch Text- oder Sprachinteraktionen simuliert und automatisierte Antworten auf Benutzeranfragen bereitstellt.
CNN (Convolutional Neural Network)
CNN (Convolutional Neural Network) ist eine Deep-Learning-Architektur, die auf die Verarbeitung gitterartiger Daten wie Bilder spezialisiert ist und Convolutional Layer zur Erkennung räumlicher Muster und Features verwendet.
Compiler
Compiler übersetzen Code aus einer Hochsprache in optimierte Maschinenanweisungen und machen KI-Modelle erst performant ausführbar.
Computer Vision
Computer Vision ist ein Bereich der KI, der Computer darauf trainiert, visuelle Informationen aus der Welt zu interpretieren und zu verstehen, wodurch Maschinen Objekte, Gesichter und Szenen in Bildern und Videos identifizieren können.
Conversational AI
Conversational AI ermöglicht natürliche Dialoge zwischen Menschen und Maschinen über Text, Sprache oder multimodale Interfaces.
Convolutional Neural Network
Convolutional Neural Networks sind Deep-Learning-Architekturen für gitterartige Daten wie Bilder, die konvolutionelle Schichten zur Erkennung räumlicher Muster verwenden.
Cosine
Erfahren Sie mehr über Cosine und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
CPU (Central Processing Unit)
Die CPU ist der universelle Prozessor eines Systems und koordiniert alle Abläufe vom Betriebssystem bis zu KI-Workloads.
D
DAG (Directed Acyclic Graph)
Ein gerichteter azyklischer Graph strukturiert abhängige Aufgaben so, dass sie effizient geplant und parallelisiert werden können.
Datensatz
Ein Datensatz ist eine kuratierte Sammlung von Beispielen, auf deren Basis KI-Modelle lernen, validiert und getestet werden.
Decoder
Der Decoder ist der Teil eines Sequenzmodells, der aus internen Repräsentationen wieder menschenlesbare Ausgaben erzeugt.
Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, der mehrschichtige neuronale Netzwerke verwendet, um komplexe Muster in Daten zu modellieren und zu verstehen, wobei die Informationsverarbeitung des menschlichen Gehirns nachgeahmt wird.
Diffusionsmodelle
Diffusionsmodelle erzeugen Bilder, Videos oder Audio, indem sie schrittweise Rauschen entfernen und so neue Inhalte synthetisieren.
Dimensions
In der künstlichen Intelligenz, insbesondere im maschinellen Lernen und der natürlichen Sprachverarbeitung (NLP), beziehen sich Dimensionen auf die Anzahl numerischer Werte (Merkmale) in einem Vektor-Embedding.
Distanz
Distanzmetriken quantifizieren, wie ähnlich oder unterschiedlich zwei Datenpunkte im Vektorraum sind.
Dot Product
Erfahren Sie mehr über Dot Product und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Dropout
Dropout ist eine Regularisierungstechnik, die zufällig einen Bruchteil der Eingabeeinheiten während des Trainings auf null setzt, um Overfitting zu verhindern und die Generalisierung in neuronalen Netzwerken zu verbessern.
E
Edge AI
Edge AI ist der Einsatz von Algorithmen und Modellen künstlicher Intelligenz direkt auf lokalen Geräten am Netzwerkrand, wodurch Echtzeitverarbeitung ohne Abhängigkeit von Cloud-Konnektivität ermöglicht wird.
Eigenvektor
Ein Eigenvektor bleibt bei einer linearen Transformation bis auf einen Skalierungsfaktor in seiner Richtung erhalten.
Eigenwert
Eigenwerte beschreiben, wie stark eine lineare Transformation einen Eigenvektor streckt oder staucht.
Embeddings
Embeddings sind dichte Vektorrepräsentationen, die semantische Bedeutung und Beziehungen zwischen Wörtern, Sätzen oder anderen Datentypen in einem kontinuierlichen mathematischen Raum erfassen.
Encoder
Der Encoder wandelt Rohdaten in kompakte, bedeutungstragende Repräsentationen um.
Ensemble Learning
Ensemble Learning ist eine Machine Learning-Technik, die mehrere Modelle kombiniert, um einen stärkeren Prädiktor zu schaffen als jedes individuelle Modell, wodurch Genauigkeit und Robustheit durch Modell-Diversität verbessert werden.
Entropie
Entropie misst die Unsicherheit oder den Informationsgehalt einer Wahrscheinlichkeitsverteilung.
Euclidean
Erfahren Sie mehr über Euclidean und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
F
F1-Score
Der F1-Score ist das harmonische Mittel aus Precision und Recall und bewertet damit Gleichgewicht zwischen Genauigkeit und Abdeckung.
Feature
Ein Feature ist ein messbares Merkmal eines Datenpunkts, das ein Modell zur Vorhersage nutzt.
Federated Learning
Federated Learning ist ein verteilter maschineller Lernansatz, der Modelle über dezentrale Geräte oder Server mit lokalen Datenmustern trainiert, ohne die Daten zu zentralisieren.
Feedforward
Feedforward beschreibt den gerichteten Informationsfluss in neuronalen Netzen von Eingabe zu Ausgabe ohne Rückkopplung.
Fine-tuning
Fine-tuning ist der Prozess der Anpassung eines vortrainierten KI-Modells an eine spezifische Aufgabe oder Domäne durch Training mit zusätzlichen aufgabenspezifischen Daten.
Float32Array
Ein Float32Array ist ein typisiertes Array zur Speicherung von 32-Bit-Gleitkommazahlen. In der KI wird es oft verwendet, um Vektoren (z.B. Embeddings) in speichereffizienten Formaten zu speichern.
Float64Array
Float64Array speichert 64-Bit-Gleitkommazahlen und ermöglicht doppelte Präzision. Es wird verwendet, wenn hohe numerische Genauigkeit wichtiger ist als Speicher zu sparen.
FLOPS
FLOPS (Floating Point Operations per Second) messen, wie viele Gleitkommaberechnungen ein System pro Sekunde durchführen kann.
Foundation Model
Foundation Models sind großangelegte KI-Modelle, die auf breiten Datensätzen trainiert wurden und als Grundlage für multiple nachgelagerte Anwendungen durch Anpassung und Fine-Tuning dienen.
Foundation Models
Foundation Models sind große KI-Modelle, die auf umfangreichen Daten trainiert wurden und als Basis für die Anpassung an verschiedene nachgelagerte Aufgaben dienen.
G
GAN (Generative Adversarial Network)
GAN (Generative Adversarial Network) ist eine Machine Learning-Architektur, bei der zwei neuronale Netzwerke konkurrieren, um realistische synthetische Daten durch adversariales Training zu generieren.
GELU
GELU (Gaussian Error Linear Unit) ist eine Aktivierungsfunktion, die glatte Übergänge zwischen linearer und nichtlinearer Verarbeitung schafft.
Genauigkeit (Accuracy)
Accuracy misst, welcher Anteil aller Vorhersagen eines Modells korrekt war, und dient als leicht verständliche Qualitätskennzahl.
Generative KI
Generative KI ist eine Kategorie künstlicher Intelligenz, die neue, originale Inhalte wie Text, Bilder, Audio, Code und andere Medien erstellen kann, indem sie Muster aus bestehenden Daten lernt.
GPT (Generative Pre-trained Transformer)
GPT (Generative Pre-trained Transformer) ist eine Familie großer Sprachmodelle, die Transformer-Architektur nutzt, um menschenähnlichen Text durch autoregressive Vorhersage zu generieren.
GPU (Graphics Processing Unit)
GPUs sind massiv parallele Prozessoren, die KI-Training und -Inference beschleunigen.
Gradient Descent
Gradient Descent ist ein fundamentaler Optimierungsalgorithmus, der im maschinellen Lernen verwendet wird, um Kostenfunktionen zu minimieren, indem iterativ in Richtung des steilsten Abstiegs des Gradienten bewegt wird.
Großes Multimodales Modell (LMM)
LMMs kombinieren Text, Bilder, Audio oder Video in einem einzigen Modell und verstehen dadurch komplexe Eingaben.
Guardrail
Guardrails sind Sicherheits- und Qualitätsregeln, die generative KI daran hindern, unerwünschte oder riskante Inhalte zu erzeugen.
H
Hallucination
Hallucination in der KI bezieht sich auf das Phänomen, wenn Sprachmodelle plausibel klingende aber faktisch inkorrekte, unsinnige oder erfundene Informationen generieren, die nicht durch Trainingsdaten oder Realität gestützt sind.
HNSW (Hierarchical Navigable Small World)
Erfahren Sie mehr über HNSW (Hierarchical Navigable Small World) und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Hugging Face
Hugging Face ist eine offene Plattform für KI-Modelle, Datensätze und Tools, die den Austausch in der Community beschleunigt.
I
Index
Erfahren Sie mehr über Index und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Index
Ein Index ist eine durchsuchbare Sammlung von Vektoren in einer Vektordatenbank wie Pinecone, Weaviate oder Cloudflare Vectorize. Er wird verwendet, um ähnliche Elemente mittels Ähnlichkeitssuche oder Nächste-Nachbarn-Suche effizient abzurufen.
Inference
Inference in der KI bezeichnet den Prozess der Verwendung eines trainierten Modells zur Vorhersage, Ausgabegenerierung oder Schlussfolgerung aus neuen Eingabedaten ohne weiteres Training.
IVF (Inverted File Index)
Erfahren Sie mehr über IVF (Inverted File Index) und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
K
Kern (Core)
Als Core bezeichnet man eine eigenständige Recheneinheit innerhalb eines Prozessors oder Beschleunigers, die Instruktionen unabhängig ausführen kann.
Kernel
Ein Kernel ist eine Funktion, die Daten in einen höherdimensionalen Raum abbildet oder als kleiner Berechnungsblock auf GPUs läuft.
KI-Assistent
Ein KI-Assistent ist eine Software, die natürliche Sprache versteht, Aufgaben automatisiert und Nutzern im Alltag oder im Business echte Entlastung verschafft.
KI-Automatisierung
KI-Automatisierung ist der Einsatz von Technologien künstlicher Intelligenz zur automatischen Ausführung von Aufgaben, Entscheidungsfindung und Prozessausführung, die traditionell menschliche Intervention erforderten.
Knoten (Node)
Ein Node ist ein Element in einem Graphen, Cluster oder Workflow und repräsentiert eine Recheneinheit oder Aufgabe.
Kontext
Kontext beschreibt die Menge an Informationen, die ein Sprachmodell gleichzeitig betrachten kann, um konsistente Antworten zu formulieren.
Kreuzentropie
Die Kreuzentropie misst den Unterschied zwischen zwei Wahrscheinlichkeitsverteilungen und dient als Loss-Funktion in Klassifikationsaufgaben.
Künstliche Intelligenz
Künstliche Intelligenz (KI) ist die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche kognitive Fähigkeiten erfordern.
Künstliche Superintelligenz
Künstliche Superintelligenz beschreibt hypothetische Systeme, die Menschen in jedem kognitiven Bereich überlegen wären und neue Innovationssprünge auslösen könnten.
L
Large Language Model
Ein Large Language Model (LLM) ist ein fortschrittliches KI-System, das auf riesigen Mengen von Textdaten trainiert wurde, um menschliche Sprache mit bemerkenswerten Fähigkeiten zu verstehen, zu generieren und zu manipulieren.
Llama
Llama ist die Open-Weight-Modellfamilie von Meta und dient als Basis für zahlreiche spezialisierte Sprach- und Agentensysteme.
LLM
Ein Large Language Model (LLM) ist eine Form künstlicher Intelligenz, die mit großen Mengen an Textdaten trainiert wurde, um menschliche Sprache zu verstehen und zu erzeugen.
Logits
Logits sind die rohen Ausgabewerte eines Modells vor Anwendung einer Aktivierungs- oder Normalisierungsfunktion.
LoRA (Low-Rank Adaptation)
LoRA ermöglicht leichtgewichtiges Finetuning großer Modelle, indem nur kleine Low-Rank-Matrizen trainiert werden.
LPU (Language Processing Unit)
LPUs sind Spezialchips, die Transformer-Inferenz extrem effizient verarbeiten und Tokens pro Sekunde maximieren.
LSH (Locality-Sensitive Hashing)
Erfahren Sie mehr über LSH (Locality-Sensitive Hashing) und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
LSTM (Long Short-Term Memory)
LSTM (Long Short-Term Memory) ist eine fortgeschrittene rekurrente neuronale Netzwerkarchitektur, die entwickelt wurde, um langfristige Abhängigkeiten in sequenziellen Daten zu lernen, indem sie das Vanishing-Gradient-Problem löst.
M
Maschinelles Lernen
Maschinelles Lernen (ML) ist ein Teilbereich der künstlichen Intelligenz, der es Computern ermöglicht, aus Erfahrungen zu lernen und sich zu verbessern, ohne für jede Aufgabe explizit programmiert zu werden.
Matrix
Eine Matrix ist eine rechteckige Anordnung von Zahlen, die lineare Transformationen kompakt beschreibt.
MBU (Memory Bandwidth Utilization)
MBU misst, wie effizient ein System die verfügbare Speicherbandbreite während KI-Workloads ausnutzt.
MCP (Model Context Protocol)
MCP ist ein offener Standard von Anthropic, der KI-Assistenten sicher mit externen Datenquellen und Tools verbindet.
MFU (Model FLOPs Utilization)
MFU zeigt, wie viel Prozent der theoretischen Rechenleistung ein KI-Job tatsächlich nutzt.
Mixture of Experts
Mixture of Experts ist eine Machine Learning Architektur, die mehrere spezialisierte Modelle (Experten) mit einem Gating-Mechanismus nutzt, um Eingaben dynamisch an relevante Experten zu routen.
ML (Machine Learning)
Erfahren Sie mehr über ML (Machine Learning) und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Multi-Head Attention
Multi-Head Attention zerlegt Aufmerksamkeit in mehrere parallele Projektionen, um verschiedene Beziehungsmuster gleichzeitig zu erfassen.
Multimodale KI
Multimodale KI bezieht sich auf Systeme künstlicher Intelligenz, die Inhalte über mehrere Datentypen hinweg verarbeiten, verstehen und generieren können, einschließlich Text, Bilder, Audio und Video.
N
Natural Language Processing (NLP)
Natural Language Processing (NLP) ist ein Zweig der KI, der sich darauf konzentriert, Computer zu befähigen, menschliche Sprache auf bedeutungsvolle Weise zu verstehen, zu interpretieren und zu generieren.
Neuromorphic Computing
Neuromorphic Computing ahmt die Struktur und Funktion biologischer neuronaler Netzwerke in Hardware nach und ermöglicht energieeffiziente KI-Verarbeitung inspiriert von Gehirnarchitektur.
Neuron
Ein Neuron ist die kleinste Recheneinheit eines neuronalen Netzes und verarbeitet Eingaben zu einer Aktivierung.
Neuronale Netzwerke
Neuronale Netzwerke sind Computersysteme, die von biologischen neuronalen Netzwerken inspiriert sind und lernen, Aufgaben durch Analyse von Beispielen und Identifikation von Mustern in Daten auszuführen.
NPU (Neural Processing Unit)
NPUs sind KI-Beschleuniger, die speziell für neuronale Netze mit geringem Stromverbrauch optimiert wurden.
O
OCR (Optical Character Recognition)
OCR erkennt Text in Bildern oder PDFs und wandelt ihn in durchsuchbare, editierbare Daten um.
Optimizer
Ein Optimizer ist ein Algorithmus, der Parameter neuronaler Netzwerke anpasst, um die Verlustfunktion während des Trainings zu minimieren und bestimmt, wie das Modell aus Daten lernt.
Overfitting
Overfitting tritt auf, wenn ein Machine Learning-Modell die Trainingsdaten zu gut lernt, einschließlich Rauschen und irrelevanter Muster, was zu schlechter Leistung bei neuen, ungesehenen Daten führt.
P
Parameter
Parameter sind die lernbaren Gewichte eines KI-Modells und bestimmen dessen Verhalten.
Perplexity
Perplexity misst, wie gut ein Sprachmodell die nächste Token-Sequenz vorhersieht – je niedriger, desto besser.
Pipeline
Eine Pipeline beschreibt eine Abfolge von Verarbeitungsschritten, die Daten oder Modelle automatisiert durchlaufen.
Pooling Layer
Pooling-Schichten reduzieren Feature-Maps in neuronalen Netzen, senken Rechenaufwand und bewahren wichtige räumliche Informationen bei Translationsinvarianz.
Precision
Precision gibt an, wie viele der als positiv eingestuften Ergebnisse tatsächlich korrekt sind.
Product Quantization
Erfahren Sie mehr über Product Quantization und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Prompt
Ein Prompt ist die Eingabe oder Instruktion, die ein Sprachmodell steuert und Kontext liefert.
Prompt Engineering
Prompt Engineering ist die Praxis der Erstellung und Optimierung von Eingabe-Prompts, um effektiv mit KI-Sprachmodellen zu kommunizieren und gewünschte Ausgaben zu erzielen.
Pruning
Beim Pruning werden unwichtige Gewichte oder Neuronen entfernt, um Modelle schlanker und schneller zu machen.
Q
Quantisierung
Quantisierung reduziert die numerische Präzision eines Modells, um Speicher und Rechenaufwand zu sparen.
Quantizer
Ein Quantizer ist der Algorithmus oder das Modul, das Werte in diskrete Stufen überführt.
Queue
Eine Queue (Warteschlange) puffert Anfragen oder Jobs, damit Systeme skalierbar und fehlertolerant bleiben.
R
RAG (Retrieval-Augmented Generation)
RAG (Retrieval-Augmented Generation) ist eine KI-Technik, die große Sprachmodelle mit externem Wissensabruf kombiniert, um genauere und kontextuell relevantere Antworten zu liefern.
Reasoning-Modelle
Reasoning-Modelle sind auf logisches Schlussfolgern optimiert und lösen Aufgaben mit mehreren Denk- und Prüfschritten.
Recall
Recall misst, wie viele der tatsächlich relevanten Elemente ein Modell gefunden hat.
Regularisierung
Regularisierung ist ein Satz von Techniken im maschinellen Lernen zur Verhinderung von Overfitting durch Hinzufügung von Beschränkungen oder Strafen zu Modellen, wodurch ihre Fähigkeit zur Generalisierung auf neue Daten verbessert wird.
Reinforcement Learning
Reinforcement Learning ist ein maschineller Lernansatz, bei dem Agenten optimales Verhalten durch Versuch und Irrtum lernen, indem sie Belohnungen oder Strafen für ihre Aktionen erhalten.
Reinforcement Learning from Human Feedback
RLHF ist ein Machine Learning Ansatz, der menschliche Präferenzen und Feedback nutzt, um KI-Modelle zu trainieren und Alignment mit menschlichen Werten durch Reward Learning zu ermöglichen.
ReLU (Rectified Linear Unit)
ReLU ist eine Aktivierungsfunktion, die negative Werte auf null setzt und positive unverändert durchlässt.
Residualverbindung
Residualverbindungen überspringen Layer und addieren Eingabe und Ausgabe, um tiefe Netze stabil zu halten.
Retrieval-Augmented Generation
Retrieval-Augmented Generation kombiniert Sprachmodelle mit externem Wissensabruf zur Generierung genauerer, aktuellerer und faktisch fundierter Textantworten.
RNN (Recurrent Neural Network)
RNN (Recurrent Neural Network) ist ein Typ neuronaler Netzwerke, der für die Verarbeitung sequenzieller Daten entwickelt wurde, indem er Gedächtnis früherer Eingaben durch rekurrente Verbindungen aufrechterhält.
RoBERTa
RoBERTa ist eine von Meta optimierte Variante des BERT-Modells mit besserem Training und größeren Datenmengen.
S
Schicht (Layer)
Eine Layer ist eine zusammenhängende Operationsebene in einem neuronalen Netz, die Eingaben transformiert und an die nächste Ebene weitergibt.
Self-Attention
Self-Attention erlaubt einem Modell, bei jeder Position dynamisch zu gewichten, wie wichtig andere Positionen derselben Sequenz sind.
Sentiment-Analyse
Sentiment-Analyse ist eine Natural Language Processing-Technik, die emotionale Tönung, Meinungen und Einstellungen aus Textdaten identifiziert und extrahiert, um öffentliche Stimmung zu verstehen.
Sigmoid
Die Sigmoid-Funktion presst Werte in den Bereich zwischen 0 und 1 und eignet sich für Wahrscheinlichkeiten oder binäre Entscheidungen.
Similarity
Similarity-Metriken bestimmen, wie ähnlich zwei Vektoren oder Dokumente sind und steuern somit Such- und Empfehlungssysteme.
Softmax
Softmax wandelt Logits in Wahrscheinlichkeiten um, indem es exponentiell gewichtet und normalisiert.
Speicher
Speicher umfasst alle Komponenten, die Daten für KI-Modelle vorhalten – vom HBM der GPU bis zum Datastore im Backend.
T
tanh
Die hyperbolische Tangens-Funktion skaliert Eingaben auf den Bereich -1 bis 1 und besitzt eine steilere Mitte als Sigmoid.
Tensor
Ein Tensor ist eine mehrdimensionale Datenstruktur, die Vektoren und Matrizen verallgemeinert und als Grundformat in Deep-Learning-Frameworks dient.
Thread
Ein Thread ist ein leichtgewichtiger Ausführungsstrang innerhalb eines Prozesses und ermöglicht parallele Verarbeitung.
Token
Tokens sind die kleinsten Einheiten, in die Texte für Sprachmodelle zerlegt werden.
Tokenisierung
Tokenisierung zerlegt Text in Tokens, damit Sprachmodelle ihn verarbeiten können.
Tokenize
Tokenize bezeichnet den Vorgang, einen konkreten Text mithilfe eines Tokenizers in IDs umzuwandeln.
Tokenizer
Ein Tokenizer ist das Modul, das Text in Token-IDs übersetzt und wieder zurück verwandelt.
Tool Call
Ein Tool Call ist ein strukturierter Funktionsaufruf, mit dem ein Sprachmodell externe Dienste oder Agenten ansteuert.
TOPS (Tera Operations per Second)
TOPS gibt an, wie viele Billionen Operationen eine Hardware pro Sekunde verarbeiten kann – oft bei integerer Präzision.
TPU (Tensor Processing Unit)
TPUs sind Googles maßgeschneiderte KI-Prozessoren mit systolischen Arrays für schnelle Matrixmultiplikationen.
Training
Training ist der Prozess, in dem ein KI-Modell aus Daten lernt, indem es seine Parameter iterativ anpasst.
Transfer Learning
Transfer Learning ist eine maschinelle Lerntechnik, bei der ein auf einer Aufgabe trainiertes Modell für die Verwendung bei einer verwandten Aufgabe angepasst wird und dabei vorhandenes Wissen nutzt, um Lerneffizienz und Leistung zu verbessern.
Transformer
Transformer ist eine neuronale Netzwerkarchitektur, die Aufmerksamkeitsmechanismen nutzt, um sequenzielle Daten parallel zu verarbeiten und damit die natürliche Sprachverarbeitung und KI revolutioniert.
Tree of Thought (ToT)
Tree-of-Thought-Prompts lassen Sprachmodelle mehrere Lösungswege erkunden und bewerten.
V
Vector
Erfahren Sie mehr über Vector und seine Anwendungen in künstlicher Intelligenz und maschinellem Lernen.
Vectors
Ein Vektor ist eine Liste von Zahlen, die Daten in einem Format darstellt, das Maschinen verstehen können — wie die Bedeutung eines Wortes, Satzes, Bildes oder Tons.
Vektor-Datenbank
Eine Vektor-Datenbank ist ein spezialisiertes Datenbanksystem, das für die Speicherung, Indexierung und Abfrage hochdimensionaler Vektordaten entwickelt wurde und schnelle Ähnlichkeitssuche für KI-Anwendungen ermöglicht.
Verlustfunktion
Eine Verlustfunktion ist eine mathematische Funktion, die den Unterschied zwischen vorhergesagten und tatsächlichen Werten misst und das Training neuronaler Netzwerke leitet, indem sie Vorhersagefehler quantifiziert.
Vokabular
Das Vokabular ist die Menge aller Tokens, die ein Sprachmodell kennt und erzeugen kann.
VRAM (Video Random Access Memory)
VRAM ist der dedizierte Speicher einer GPU und speichert Gewichte, Aktivierungen und Texturen.