In der künstlichen Intelligenz, insbesondere im maschinellen Lernen und der natürlichen Sprachverarbeitung (NLP), beziehen sich Dimensionen auf die Anzahl numerischer Werte (Merkmale) in einem Vektor-Embedding.
In der künstlichen Intelligenz (KI) und im maschinellen Lernen beziehen sich Dimensionen auf die Anzahl der Elemente (Merkmale) in einer Vektorrepräsentation von Daten. Jedes Element in diesem Vektor erfasst einen anderen Aspekt oder Attribute der Daten, wie semantische Bedeutung, syntaktische Struktur oder visuelle Eigenschaften. Dimensionalität ist entscheidend, da sie bestimmt, wie viel Information ein Vektor kodieren kann.
Zum Beispiel konvertieren in der natürlichen Sprachverarbeitung (NLP) Embeddings wie BERT oder Word2Vec Wörter oder Sätze in hochdimensionale Vektoren — typischerweise mit 300, 768 oder sogar über 1.000 Dimensionen. In der Bilderkennung können Embeddings von Modellen wie CLIP Hunderte bis Tausende von Dimensionen haben, um visuelle Merkmale wie Formen, Texturen oder Farben zu repräsentieren.
Beispiel: Ein 3-dimensionaler Vektor: [0.1, 0.3, 0.9] — einfach und für Beispiele verwendet. Ein 1.536-dimensionaler Vektor: [0.23, -0.11, …, 0.45] — verwendet in fortgeschrittenen KI-Modellen zur Darstellung komplexer Daten.
Höherdimensionale Vektoren können mehr Nuancen erfassen, können aber zu höheren Rechenkosten und Overfitting in einigen Fällen führen — eine Herausforderung, die als “Fluch der Dimensionalität” bekannt ist. Das Reduzieren oder Optimieren von Dimensionen (z.B. mit PCA oder Dimensionalitätsreduktion) ist essentiell für effiziente KI-Anwendungen.