Description
Efnisyfirlit
- Vorwort
- 1 Einführung
- 1.1 Auswertung von Massendaten
- 1.2 Ablauf einer Datenanalyse
- 1.3 Das Vorgehensmodell von Fayyad
- 1.4 Interdisziplinarität von Data Mining
- 1.5 Wozu Data Mining?
- 1.6 Werkzeuge
- 1.6.1 KNIME
- 1.6.2 WEKA
- 1.6.3 JAVANNS
- 1.6.4 Python
- 2 Grundlagen des Data Mining
- 2.1 Grundbegriffe
- 2.2 Datentypen
- 2.3 Abstands- und Ähnlichkeitsmaße
- 2.4 Grundlagen Künstlicher Neuronaler Netze
- 2.5 Logik
- 2.6 Überwachtes und unüberwachtes Lernen
- 3 Anwendungsklassen
- 3.1 Cluster-Analyse
- 3.2 Klassifikation
- 3.3 Numerische Vorhersage
- 3.4 Assoziationsanalyse
- 3.5 Text Mining
- 3.6 Web Mining
- 4 Wissensrepräsentation
- 4.1 Entscheidungstabelle
- 4.2 Entscheidungsbäume
- 4.3 Regeln
- 4.4 Assoziationsregeln
- 4.5 Instanzenbasierte Darstellung
- 4.6 Repräsentation von Clustern
- 4.7 Neuronale Netze als Wissensspeicher
- 5 Klassifikation
- 5.1 K-Nearest Neighbour
- 5.1.1 K-Nearest-Neighbour-Algorithmus
- 5.1.2 Ein verfeinerter Algorithmus
- 5.2 Entscheidungsbaumlernen
- 5.2.1 Erzeugen eines Entscheidungsbaums
- 5.2.2 Auswahl eines Attributs
- 5.2.3 Der ID3-Algorithmus zur Erzeugung eines Entscheidungsbaums
- 5.2.4 Entropie
- 5.2.5 Der Gini-Index
- 5.2.6 Der C4.5-Algorithmus
- 5.2.7 Probleme beim Entscheidungsbaumlernen
- 5.2.8 Entscheidungsbaum und Regeln
- 5.3 Naive Bayes
- 5.3.1 Bayessche Formel
- 5.3.2 Der Naive-Bayes-Algorithmus
- 5.4 Vorwärtsgerichtete Neuronale Netze
- 5.4.1 Architektur
- 5.4.2 Das Backpropagation-of-Error-Lernverfahren
- 5.4.3 Modifikationen des Backpropagation-Algorithmus
- 5.4.4 Ein Beispiel
- 5.4.5 Convolutional Neural Networks
- 5.5 Support Vector Machines
- 5.5.1 Grundprinzip
- 5.5.2 Formale Darstellung von Support Vector Machines
- 5.6 Ensemble Learning
- 5.6.1 Bagging
- 5.6.2 Boosting
- 5.6.3 Random Forest
- 6 Cluster-Analyse
- 6.1 Arten der Cluster-Analyse
- 6.1.1 Partitionierende Cluster-Bildung
- 6.1.2 Hierarchische Cluster-Bildung
- 6.1.3 Dichtebasierte Cluster-Bildung
- 6.1.4 Cluster-Analyse mit Neuronalen Netzen
- 6.2 Der k-Means-Algorithmus
- 6.3 Der k-Medoid-Algorithmus
- 6.4 Erwartungsmaximierung
- 6.5 Agglomeratives Clustern
- 6.6 Dichtebasiertes Clustern
- 6.7 Cluster-Bildung mittels selbstorganisierender Karten
- 6.7.1 Aufbau
- 6.7.2 Lernen
- 6.7.3 Visualisierung einer SOM
- 6.7.4 Ein Beispiel
- 6.8 Cluster-Bildung mittels neuronaler Gase
- 6.9 Cluster-Bildung mittels ART
- 6.10 Der Fuzzy-c-Means-Algorithmus
- 7 Assoziationsanalyse
- 7.1 Der A-Priori-Algorithmus
- 7.1.1 Generierung der Kandidaten
- 7.1.2 Erzeugen der Regeln
- 7.2 Frequent Pattern Growth
- 7.3 Assoziationsregeln für spezielle Aufgaben
- 7.3.1 Hierarchische Assoziationsregeln
- 7.3.2 Quantitative Assoziationsregeln
- 7.3.3 Erzeugung von temporalen Assoziationsregeln
- 8 Datenvorbereitung
- 8.1 Motivation
- 8.2 Arten der Datenvorbereitung
- 8.2.1 Datenselektion und -integration
- 8.2.2 Datensäuberung
- 8.2.3 Datenreduktion
- 8.2.4 Ungleichverteilung des Zielattributs
- 8.2.5 Datentransformation
- 8.3 Ein Beispiel
- 9 Bewertung
- 9.1 Prinzip der minimalen Beschreibungslängen
- 9.2 Interessantheitsmaße für Assoziationsregeln
- 9.2.1 Support
- 9.2.2 Konfidenz
- 9.2.3 Completeness
- 9.2.4 Gain-Funktion
- 9.2.5 –Funktion
- 9.2.6 Lift
- 9.2.7 Einordnung der Interessantheitsmaße
- 9.3 Gütemaße und Fehlerkosten
- 9.3.1 Fehlerrate
- 9.3.2 Weitere Gütemaße für Klassifikatoren
- 9.3.3 Fehlerkosten
- 9.4 Testmengen
- 9.5 Qualität von Clustern
- 9.6 Visualisierung
- 10 Eine Data-Mining-Aufgabe
- 10.1 Die Aufgabe
- 10.2 Das Problem
- 10.3 Die Daten
- 10.4 Datenvorbereitung
- 10.5 Experimente
- 10.5.1 K-Nearest Neighbour
- 10.5.2 Naive Bayes
- 10.5.3 Entscheidungsbaumverfahren
- 10.5.4 Neuronale Netze
- 10.6 Python-Programm
- 10.6.1 Datenvorverarbeitung
- 10.6.2 Modellentwicklung
- 10.6.3 Anwendung des Modells – die Vorhersage
- 10.7 Auswertung der Ergebnisse
- A Anhang – Beispieldaten
- A. 1 Iris-Daten
- A.2 Sojabohnen
- A.3 Wetter-Daten
- A. 4 Kontaktlinsen-Daten
- Literatur
- Stichwortverzeichnis
Reviews
There are no reviews yet.