贝叶斯学习--极大后验假设学习

我们假定学习器考虑的是定义在实例空间X上的有限的假设空间H,任务是学习某个目标概念c:X→{0,1}。如通常那样,假定给予学习器某训练样例序列〈〈x1d1,〉…〈xmdm〉〉,其中xiX中的某实例,dixi的目标函数值(即di=c(xi))。为简化讨论,假定实例序列〈x1xm〉是固定不变的,因此训练数据D可被简单地写作目标函数值序列:D=〈d1dm〉。

基于贝叶斯理论我们可以设计一个简单的算法输出最大后验假设

Brute-ForceMAP学习算法

1.对于H中每个假设h,计算后验概率:


2.输出有最高后验概率的假设hMAP:


此算法需要较大的计算量,因为它对H中每个假设都应用了贝叶斯公式以计算P(h|D)。

虽然对于大的假设空间这很不切实际,但该算法仍然值得关注,因为它提供了一个标准,以判断其他概念学习算法的性能。

下面为Brute-ForceMAP学习算法指定一学习问题,我们必须确定P(h)和P(D|h)分别应取何值(可以看出,P(D)的值会依这两者而定)。

我们可以以任意方法选择P(h)和P(D|h)的概率分布,以描述该学习任务的先验知识。但是先要满足下面的条件假设:

1.训练数据D是无噪声的(即di=c(xi));

2.目标概念c包含在假设空间H中;

3.没有任何理由认为某假设比其他的假设的可能性大。

一、如何确定P(h)的值

 对H中任一h:

               

二、如何选择P(D|h)的值



换言之,给定假设h,数据D的概率在其与假设h一致时值为1,否则值为0。

接下来考虑该算法的第一步,使用贝叶斯公式计算每个假设h的后验概率P(h|D):


1、考虑h与训练数据D不一致的情形


2、考虑hD一致的情况


其中:


VSH,DH中与D一致的假设子集(即VSH,D是相对于D的变型空间)

概而言之,贝叶斯公式说明在我们的P(h)和P(D|h)的定义下,后验概率P(h|D)为:

其中|VSH,D|是H中与D一致的假设数量。


在我们选定的P(h)和P(D|h)取值下,每个一致的假设后验概率为(1/|VSH,D|),每个不一致假设后验概率为0。因此,每个一致的假设都是MAP假设。



  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值