0% fanden dieses Dokument nützlich (0 Abstimmungen)
82 Ansichten10 Seiten

Repetition-Naive Bayesian Networks

Hochgeladen von

Kat Ja
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
82 Ansichten10 Seiten

Repetition-Naive Bayesian Networks

Hochgeladen von

Kat Ja
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

kurze Gedächtnisstütze:

Naive Bayes-
Klassifikatoren
Dipl.-Inform. Martin Lösch

[Link]@[Link]
(0721) – 608 45944

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme
Theorem von Bayes
Wahrscheinlichkeit, dass h aus H gültig ist (a priori,
d.h. vor Beobachtung von D).
Wahrscheinlichkeit, dass D als Ereignisdatensatz
auftritt (ohne Wissen über gültige Hypothese).
Wahrscheinlichkeit des Auftretens von D in einer Welt,
in der h gilt.
Wahrscheinlichkeit, dass h wahr ist gegeben die
beobachteten Daten D (a posteriori).

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 2
Naiver Bayes (NB)-Klassifikator I
•  Gegeben:
–  Instanz x: Konjunktion von Attributen
–  Endliche Menge von Klassen
–  Menge klassifizierter Beispiele

•  Gesucht:
–  Wahrscheinlichste Klasse für eine neue Instanz

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 3
Naiver Bayes-Klassifikator II
•  lässt sich leicht aus dem Auftreten der Klasse in
der Trainingsmenge berechnen - einfaches Zählen.
•  ist schwerer zu berechnen: Auszählen
aller Kombinationen - dazu ist eine riesige Trainingsmenge
notwendig.

•  Vereinfachende Annahme ( bedingt unabhängig):

•  Naiver Bayes-Klassifikator:

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 4
Beispiel I
Vorhersage Temperatur Luftfeuchtigkeit Wind Tennis?
sonnig heiß hoch schwach nein
sonnig heiß hoch stark nein
bedeckt heiß hoch schwach ja
regnerisch warm hoch schwach ja
regnerisch kalt normal schwach ja
regnerisch kalt normal stark nein
bedeckt kalt normal stark ja
sonnig warm hoch schwach nein
sonnig kalt normal schwach ja
regnerisch warm normal schwach ja
sonnig warm normal stark ja
bedeckt warm hoch stark ja
bedeckt heiß normal schwach ja
regnerisch warm hoch stark nein

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 5
Beispiel II
•  Neue Instanz:

•   Klassifikation:

•  Normierte Wahrscheinlichkeit:
Dipl.-Inform. Martin Lösch
Labor Wissensbasierte Systeme Bayessche Netze 6
Schätzen von Wahrscheinlichkeiten
•  Problem: Was, wenn für eine Klasse ein Attribut
einen bestimmten Wert in den Daten gar nicht annimmt?

•  Lösung: (m-Schätzer)

•  Anzahl der Beispiele mit


•  Anzahl der Beispiele mit und
•  A priori Wahrscheinlichkeit für
•  Gewichtung der „virtuellen Beispiele“ mit a priori
Wahrscheinlichkeit

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 7
Zusammenfassung
•  Bayes-Methoden ermitteln a posteriori Wahrscheinlichkeiten
für Hypothesen basierend auf angenommenen a priori
Wahrscheinlichkeiten und beobachteten Daten.
•  Der Naive Bayes-Klassifikator basiert auf einer Annahme:
bedingte Unabhängigkeit der Attributwerte.

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 8
Fragen?

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme
Literatur
•  T. Mitchell: Machine Learning, Kapitel 6. McGraw-Hill, New
York, 1997.
•  S. Russel, P. Norvig: Artificial Intelligence: A Modern
Approach. Prenctice Hall, 2nd Edition, 2003.
•  C.M. Bishop: Pattern Recognition and Machine Learning.
Springer, 2006.

Dipl.-Inform. Martin Lösch


Labor Wissensbasierte Systeme Bayessche Netze 10

Das könnte Ihnen auch gefallen