R机器学习:朴素贝叶斯算法的理解与实操

打印 上一主题 下一主题

主题 893|帖子 893|积分 2679

近来又看了很多贝叶斯算法的一些文章,好多的文章对这个算法表明起来会放一大堆公式,对代数欠好的人来说真的很头疼。本文尝试着用明白话写写这个算法,再做个例子,帮助大家理解和运用。
   Naive Bayes is a probabilistic machine learning algorithm based on the Bayes Theorem, used in a wide variety of classification tasks.
  贝叶斯算法是分类标题的紧张解决方法,简单但是很强大,在文天职类、垃圾邮件辨认等高维数据(特征超多的数据集)的机器学习领域有紧张应用。基本逻辑就是很多的时候我们很容易知道在不同的因变量的程度上自变量的分布的怎样的,我们要解决的标题是知道了特征的情况然后去预测因变量,实在就是:from P(X|Y), known from the training dataset, to find P(Y|X).朴素贝叶斯算法架起了从from P(X|Y)to find P(Y|X)的桥梁。
要很好的理解朴素贝叶斯的整个过程首先要弄清楚两个东西,一个是条件概率、一个是贝叶斯理论。
条件概率和贝叶斯定理

我们什么理论都不要想,先做一个例子:100个人的数据如下表,按照身份可以分为教师、弟子。按照性别又可以分为男性女性。现在我们尝试得到男性中教师的概率是多少(把性别当做特征,把身份当做结局,这个标题便是知道特征求结局的概率的一个标题)。
这个男性中教师的概率就是条件概率,我们不是单纯的讨教师的概率而是先给了个条件(这个人首先得是男性)。这个时候计算概率的分母会变革。
   when you say the conditional probability of A given B, it denotes the probability of A occurring given that B has already occurred.
  


这个标题你会怎么做?可以直接找到男教师有多少(看表应该是12),然后用这个数字除以男性(看表应该是60人),可以得到12/60=0.12。就得到男性中教师的概率是0.2。
上面的12比上100就是0.12为同时是男性又是教师的概率。60比上100就是0.6为数据中男性的概率,我们用0.12/0.6得到了0.2的效果实在我们就是在不自觉地运行下面的公式:


公式中,teacher和male可以交换位置。于是就有

图1
上面这两个公式就是两独立事件计算条件概率时天然满足的:

图2
我们将图1中的公式2带入公式1就得到贝叶斯定理了:


这个贝叶斯定理最最紧张的作用就是打通了从P(X|Y), known from the training dataset, to find P(Y|X)的路径
贝叶斯与朴素贝叶斯

上面的例子我们知道了贝叶斯定理的公式,这个公式和现实标题联系到一起还须要拓展一下
我们把公式中的AB换成XY,于是就有下图:


我们把x当做自变量,y当做因变量。通过贝叶斯定理我们就把P(X|Y)到P(Y|X)的路径打通了。这个话要反复读。
现实中,我们网络来一波练习数据,我们是很容易知道在y的不同程度x是怎样分布的(就像上面的例子中我们很容易知道教师中男性的比例是怎样的,如果把性别当做自变量、身份当做因变量的话,很容易知道P(X|Y)),通过贝叶斯公式我们可以求得x分布确定的情况下,y取不同程度的概率(就像上面例子中我们知道了自变量性别是男性可以求的其为教师的概率为0.2,得到P(Y|X)).
也就是说贝叶斯定理乐成的让我们可以从自变量的分布预测因变量。
   The Bayes Rule is a way of going from P(X|Y), known from the training dataset, to find P(Y|X).
  现实中我们会有很多的x,我们会想着直接将多个贝叶斯公式相乘来处理,这么做就暗含了一个朴素的假设就是所有的x都是独立的,这么一种朴素假设加持的贝叶斯就是朴素贝叶斯:


这个名字只是由于它有这么一个朴素的假设:
   The name naive is used because it assumes the features that go into the model is independent of each other. That is changing the value of one feature, does not directly influence or change the value of any of the other features used in the algorithm.
  


就这么一个简单的假设,可以让这个算法可以处理很多个x的高维数据。很强大。
成为正规算法之后,就得有一些高大上的名词:
我们把特征理解为证据,因变量理解为结局,那么P(Y|X)就叫做后验概率posterior probability,意思是一组证据情况下结局是什么的概率,也是我们要预测的感爱好的东西。
P(X|Y)叫做证据的似然概率,意思是某个结局存在的情况下相应证据出现的概率。
P(Y)叫做先验,意思是某个结局的相应概率。
P(X)叫做证据概率,意思是某些特征(证据),特征组合的相应概率。
总结一下:朴素贝叶斯就是后验概率便是证据似然概率乘以先验概率除以证据概率。


实例

我们现在想通过3个证据组合x1,x2,x3来预测水果种类,数据大概格式如下:


对这么个数据我们须要换个格式才能计算朴素贝叶斯算法对应的各种概率:


统共有3个、首先是先验概率:
Compute the ‘Prior’ probabilities for each of the class of fruits
首先就是计算先验,就是每个种类水果的概率,可以看到在1000个水果中有800个香蕉,300个橘子,200个其他,那么我们可以得到各种水果的先验分别为0.5,0.3,0.2.
P(Y=Banana) = 500 / 1000 = 0.50 P(Y=Orange) = 300 / 1000 = 0.30 P(Y=Other) = 200 / 1000 = 0.20
再是证据概率
Compute the probability of evidence that goes in the denominator.
第二步就是计算证据的概率,也就是所有特征出现的概率,我们的特征有3个,x1到x3的证据概率分别为0.5,0.65,0.8。
P(x1=Long) = 500 / 1000 = 0.50 P(x2=Sweet) = 650 / 1000 = 0.65 P(x3=Yellow) = 800 / 1000 = 0.80
Compute the probability of likelihood of evidences that goes in the numerator.
第三步是计算证据似然的概率,好比说香蕉long这个特征为真的概率就为P(Long | Banana) = 400/500 = 0.8。
Substitute all the 3 equations into the Naive Bayes formula, to get the probability that it is a banana.
末了一步就是将前三步的效果带入朴素贝叶斯公式就可以得到在某组特征下水果分别为香蕉,为橘子,为其他水果的概率。例如在特征long、sweet、yellow为真的情况下,水果为香蕉的概率为0.252,为橘子的概率为0,为其他水果的概率为0.01875.


那么这个时候算法就会告诉我们这个水果就是香蕉。
上面就是算法的整个过程,仔细的同学估计会有疑问橘子的概率为0,只是由于所有练习数据中结局为橘子的个案long这个特征没有出现真(某一个证据似然概率为0),朴素贝叶斯算法涉及到相乘的话造成了效果为0。在这个只有3个特征的数据集中看起来这个效果无可厚非,长橘子本身好像现实中也不存在。但是想象一下我们面对一个陌生的数据集,特征很多,所有特征实在都有影响的,结局的某个类别中某个特征为0导致算法效果扫除了该类别,如许肯定存在不符合,为0的特征影响实在太大了,相称于某一个特征有了一票否决。
所以有须要进行校正。校正的方法就叫做Laplace Correction,就是给每个为零的格子加一个数(通常为1),如许保证不出现概率为0的情况。
实操

只要理解了背后的逻辑,实操就很简单了,我们以iris数据集作为例子。原始数据长如许:


共有5个变量,4个是特征,末了一个是结局(花的种类,有3类)。对于上面的数据集我们按照7:3划分好练习集和测试集。
  1. iris_split <- initial_split(iris, prop = 0.70)
  2. iris_train <- training(iris_split)
  3. iris_test  <-  testing(iris_split)
复制代码
然后我们用klaR包进行贝叶斯算法练习,同时用练习好的模子预测测试集数据,代码如下:
  1. nb_mod <- NaiveBayes(Species ~ ., data=training)
  2. pred <- predict(nb_mod, test)
复制代码
得到的pred对象就是预测的效果,对每一个个案预测模子都会输出的成为各个类别应变量的后验概率:


后验概率最大的类别就是最终的模子输出类别。
再得到混淆矩阵,代码如下:
  1. tab <- table(pred$class, iris_test$Species)
  2. caret::confusionMatrix(tab)  
复制代码


可以看到我们的模子在测试集中体现还是很好的,只有2个个案分类错了。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

乌市泽哥

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表