首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 服务器 > 云计算 >

斯坦福ML公开课札记9——偏差/方差、经验风险最小化、联合界、一致收敛

2013-10-08 
斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛本篇与前面不同,主要内容不是算法,而是机

斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛

本篇与前面不同,主要内容不是算法,而是机器学习的另一部分内容——学习理论。主要包括偏差/方差(Bias/variance)、经验风险最小化(Empirical Risk Minization,ERM)、联合界(Union bound)、一致收敛(Uniform Convergence)。

Ng对学习理论的重要性很是强调,他说理解了学习理论是对机器学习只懂皮毛的人和真正理解机器学习的人的区别。学习理论的重要性在于通过它能够针对实际问题更好的选择模型,修改模型。

斯坦福ML公开课札记9——偏差/方差、经验风险最小化、联合界、一致收敛

斯坦福ML公开课札记9——偏差/方差、经验风险最小化、联合界、一致收敛

斯坦福ML公开课札记9——偏差/方差、经验风险最小化、联合界、一致收敛

斯坦福ML公开课札记9——偏差/方差、经验风险最小化、联合界、一致收敛


热点排行