Notationen#
In diesem Buch verwenden wir viele mathematische Notation. Hier sind noch einmal die wichtigsten zum Nachschlagen als Tabelle.
Notation |
Definition |
---|---|
\(\mathbb{R}\) |
Die reellen Zahlen, also mehr oder weniger beliebige numerische Werte. |
\(\mathbb{N}\) |
Die natürlichen Zahlen, also alle ganzen Zahlen die größer null sind. |
\(O\) |
Objektraum, also die Menge der Objekte aus der realen Welt. |
\(\phi\) |
Feature Map, also eine Abbildung, die definiert, wie Merkmale für Objekte berechnet werden. |
\(\mathcal{F}\) |
Merkmalsraum (engl. feature space), also die Dimension und die möglichen Werte der Merkmale. Häufig ist dies der \(\mathbb{R}^d\), also die \(d\)-dimensionalen reellen Zahlen. In diesem Fall gibt es \(d \in \mathbb{N}\) Merkmale. |
\(X\) (Clustering, Klassifikation, Regression) |
Instanzen von Objekten im Merkmalsraum. Je nach Kontext ist \(X\) entweder eine Menge von Instanzen \(X = \{x_1, ..., x_n\} \subseteq \mathcal{F}\) oder eine Zufallsvariable, sodass die Instanzen Realisierungen dieser Zufallsvariablen sind. |
\(Y\) (Klassifikation, Regression) |
Wert von Interesse, also die Klasse bei der Klassifikation oder die abhängige Variable bei der Regression. Wie \(X\) wird \(Y\) auch entweder als Menge \(Y= \{y_1, ..., y_n\}\) oder als Zufallsvariable definiert. |
\(I\) |
Endliche Menge von Gegenständen \(I=\{i_1, ..., i_m\}\) |
\(T\) |
Endliche Menge von Transaktionen \(T=\{t_1, ..., t_n\}\), wobei \(t_i \subseteq I\) für \(i=1, ..., n\). |
\(X\) (Assoziationsregeln) |
Bedingung (engl. antecedent) einer Assoziationsregel |
\(Y\) (Assoziationsregeln) |
Folgerung (engl. consequent) einer Assoziationsregel |
\(X \Rightarrow Y\) |
Assoziationsregel, wobei \(X\) die Bedingung und \(Y\) die Folgerung ist. |
\({n \choose k}\) |
Binomialkoeffizient \({n \choose k} = \frac{n!}{(n-k)!k!}\) |
\(\mathcal{P}(I)\) |
Die Potenzmenge einer endlichen Menge \(I\) |
\(\vert \cdot \vert\) |
Die Kardinalität einer Menge, zum Beispiel \(\vert X \vert\) für die Anzahl der Elemente der Menge \(X\) |
\(d(x,y)\) |
Distanz zwischen zwei Vektoren \(x\) und \(y\), zum Beispiel die euklidische Distanz, die Man-hattan-Distanz oder die Chebyshev-Distanz. |
\(\arg\min_{i=1,...,k} f(i)\) |
Der Wert \(i\), für den die Funktion \(f\) minimiert wird. |
\(\arg\min_{i \in \{1, ..., k\}} f(i)\) |
Andere Schreibweise für \(\arg\min_{i=1,...,k} f(i)\) |
\(\min_{i=1,...,k} f(i)\) |
Das Minimum der Funktion \(f\) über die verschiedenen Werte von \(i\) |
\(\min_{i \in \{1, ..., k\}} f(i)\) |
Andere Schreibweise für \(\min_{i=1, ..., k}\) |
\(\arg\max\) |
Siehe \(\arg\min\) |
\(\max\) |
Siehe \(\min\) |
\(\sim\) |
Definiert die Verteilung einer Zufallsvariablen. Wir schreiben \(X \sim (\mu, \sigma)\), um zu definieren, dass \(X\) normalverteilt ist mit dem Mittelwert \(\mu\) und der Standardabweichung \(\sigma\). |
\(C\) (Klassifikation) |
Menge der Klassen |
\(C\) (Clustering) |
Beschreibung der Cluster |
\(h\) |
Hypothese, Konzept, Klassifikator, Klassifikationsmodell |
\(h^*\) |
Zielkonzept |
\(h'_c\) |
Score einer Hypothese für die Klasse \(c\) |
\(P(X=x)\) |
Wahrscheinlichkeit, dass die Zufallsvariable \(X\) den Wert \(x\) annimmt. |
\(p(x)\) |
Kurzform für \(p(x) = P(X=x)\) bei einer Zufallsvariablen \(x\) |
\(P(X \vert Y)\) |
Bedingte Wahrscheinlichkeit einer Zufallsvariablen \(X\), wenn der Wert einer anderen Zufallsvariablen \(Y\) bekannt ist. |
\(H(X)\) |
Entropie einer Zufallsvariablen \(X\) |
\(H(X \vert Y)\) |
Bedingte Entropie der Zufallsvariablen \(X\), wenn der Wert einer anderen Zufallsvariablen \(Y\) bekannt ist. |
\(I(X; Y)\) |
Informationsgewinn (engl. information gain) für \(X\) bzw. \(Y\), wenn die andere Variable bekannt ist. Wird auch als gemeinsame Information (engl. mutual information) bezeichnet. |
\(e_x\) |
Residuen einer Regression |
\(x_t\) |
Werte einer Zeitreihe \(\{x_1, ..., x_T\} = \{x_t\}_{t=1}^T\) |
\(T_t\) |
Trend einer Zeitreihe |
\(S_t\) |
Saisonalität einer Zeitreihe |
\(R_t\) |
Autoregressiver Teil einer Zeitreihe |