贝叶斯分类JAVA实现
贝叶斯应用的条件是:已知某条件概率,如何得到2个事件交换后的概率,也就是在已知P(A/B)的情况下如何求得P(B/A).
条件概率:
P(A/B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其基本求解公式为:
P(A/B)=P(AB)/P(B) 在生
http://www.cnblogs.com/hexinuaa/articles/2143483.html
http://blog.sina.com.cn/s/blog_5e3455e70100u3s4.html
贝叶斯学习理论
贝叶斯是一种基于概率的学习算法,能够用来计算显式的假设概率,它基于假设的先验概率,给定假设下观察到不同数据的概率以及观察到的数据本身。
我们用P(h)表示没有训练样本数据前假设h拥有的初始概率,也就成为h的先验概率,它反映了我们所拥有的关于h是一个正确假设的机会的背景知识。类似,P(D)代表将要观察的训练样本数据D的先验概率(也就是说,在没有确定某一个假设成立时D的概率)。然后是P(D/h),它表示假设h成立时观察到数据D的概率。在机器学习中,我们感兴趣的是P(h/D),也就是给定了一个训练样本数据D,判断假设h成立的概率,这也称之为后验概率,它反映了在看到训练样本数据D后假设h成立的置信度。
p(h/D)=p(D/H)P(H)/P(D),从贝叶斯公式可以看出,后验概率p(h/d)取决于p(d/h)p(h)这个乘积,这就是贝叶斯分类算法的核心思想。我们要做的就是要考虑候选假设集合H,并在其中寻找当给定训练数据D时可能性最大的假设h
直观地说,就是给定了一个训练样本数据(样本数据已经人工分类好了),我们应该如何从这个样本数据集去学习,从而当我们碰到新的数据时,可以将新数据分类到某一个类别中去。
贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。