Notationen

Notationen

In diesem Buch verwenden wir viele mathematische Notation. Hier sind noch einmal die wichtigsten zum Nachschlagen als Tabelle.

Notation

Definition

\(\mathbb{R}\)

Die reellen Zahlen, also mehr oder weniger beliebige numerische Werte.

\(\mathbb{N}\)

Die natürlichen Zahlen, also alle ganzen Zahlen die größer null sind.

\(O\)

Objektraum, also die Menge der Objekte aus der realen Welt.

\(\phi\)

Feature Map, also eine Abbildung, die definiert, wie Merkmale für Objekte berechnet werden.

\(\mathcal{F}\)

Merkmalsraum (engl. feature space), also die Dimension und die möglichen Werte der Merkmale. Häufig ist dies der \(\mathbb{R}^d\), also die \(d\)-dimensionalen reellen Zahlen. In diesem Fall gibt es \(d \in \mathbb{N}\) Merkmale.

\(X\) (Clustering, Klassifikation, Regression)

Instanzen von Objekten im Merkmalsraum. Je nach Kontext ist \(X\) entweder eine Menge von Instanzen \(X = \{x_1, ..., x_n\} \subseteq \mathcal{F}\) oder eine Zufallsvariable, sodass die Instanzen Realisierungen dieser Zufallsvariablen sind.

\(Y\) (Klassifikation, Regression)

Wert von Interesse, also die Klasse bei der Klassifikation oder die abhängige Variable bei der Regression. Wie \(X\) wird \(Y\) auch entweder als Menge \(Y= \{y_1, ..., y_n\}\) oder als Zufallsvariable definiert.

\(I\)

Endliche Menge von Gegenständen \(I=\{i_1, ..., i_m\}\)

\(T\)

Endliche Menge von Transaktionen \(T=\{t_1, ..., t_n\}\), wobei \(t_i \subseteq I\) für \(i=1, ..., n\).

\(X\) (Assoziationsregeln)

Bedingung (engl. antecedent) einer Assoziationsregel

\(Y\) (Assoziationsregeln)

Folgerung (engl. consequent) einer Assoziationsregel

\(X \Rightarrow Y\)

Assoziationsregel, wobei \(X\) die Bedingung und \(Y\) die Folgerung ist.

\({n \choose k}\)

Binomialkoeffizient \({n \choose k} = \frac{n!}{(n-k)!k!}\)

\(\mathcal{P}(I)\)

Die Potenzmenge einer endlichen Menge \(I\)

\(\vert \cdot \vert\)

Die Kardinalität einer Menge, zum Beispiel \(\vert X \vert\) für die Anzahl der Elemente der Menge \(X\)

\(d(x,y)\)

Distanz zwischen zwei Vektoren \(x\) und \(y\), zum Beispiel die euklidische Distanz, die Man-hattan-Distanz oder die Chebyshev-Distanz.

\(\arg\min_{i=1,...,k} f(i)\)

Der Wert \(i\), für den die Funktion \(f\) minimiert wird.

\(\arg\min_{i \in \{1, ..., k\}} f(i)\)

Andere Schreibweise für \(\arg\min_{i=1,...,k} f(i)\)

\(\min_{i=1,...,k} f(i)\)

Das Minimum der Funktion \(f\) über die verschiedenen Werte von \(i\)

\(\min_{i \in \{1, ..., k\}} f(i)\)

Andere Schreibweise für \(\min_{i=1, ..., k}\)

\(\arg\max\)

Siehe \(\arg\min\)

\(\max\)

Siehe \(\min\)

\(\sim\)

Definiert die Verteilung einer Zufallsvariablen. Wir schreiben \(X \sim (\mu, \sigma)\), um zu definieren, dass \(X\) normalverteilt ist mit dem Mittelwert \(\mu\) und der Standardabweichung \(\sigma\).

\(C\) (Klassifikation)

Menge der Klassen

\(C\) (Clustering)

Beschreibung der Cluster

\(h\)

Hypothese, Konzept, Klassifikator, Klassifikationsmodell

\(h^*\)

Zielkonzept

\(h'_c\)

Score einer Hypothese für die Klasse \(c\)

\(P(X=x)\)

Wahrscheinlichkeit, dass die Zufallsvariable \(X\) den Wert \(x\) annimmt.

\(p(x)\)

Kurzform für \(p(x) = P(X=x)\) bei einer Zufallsvariablen \(x\)

\(P(X \vert Y)\)

Bedingte Wahrscheinlichkeit einer Zufallsvariablen \(X\), wenn der Wert einer anderen Zufallsvariablen \(Y\) bekannt ist.

\(H(X)\)

Entropie einer Zufallsvariablen \(X\)

\(H(X \vert Y)\)

Bedingte Entropie der Zufallsvariablen \(X\), wenn der Wert einer anderen Zufallsvariablen \(Y\) bekannt ist.

\(I(X; Y)\)

Informationsgewinn (engl. information gain) für \(X\) bzw. \(Y\), wenn die andere Variable bekannt ist. Wird auch als gemeinsame Information (engl. mutual information) bezeichnet.

\(e_x\)

Residuen einer Regression

\(x_t\)

Werte einer Zeitreihe \(\{x_1, ..., x_T\} = \{x_t\}_{t=1}^T\)

\(T_t\)

Trend einer Zeitreihe

\(S_t\)

Saisonalität einer Zeitreihe

\(R_t\)

Autoregressiver Teil einer Zeitreihe