Coursera Machine Learning 学习笔记(八)



IV. Linear Regression with Multiple Variables (Week 2)

- Multiple features

       之前我们介绍了单变量/单特征的回归模型,现在我们对房价预测模型增加更多的变量也就是更多的特征,比如房间数、楼层、房龄等,从而构成一个含有多个变量/特征的模型。

       技术分享            

       在增加了更多变量/特征之后,我们将引入一系列新的符号和解释:

       n 代表变量/特征的个数 

       技术分享代表第i个训练实例,也就是特征矩阵中的第i行,即一个向量

       技术分享代表第i个训练实例的第j个特征,也就是特征矩阵中第i行的第j个特征

       因此,多变量/特征的假设h可以表示为:

       技术分享

       这个公式中有n+1个参数和n个变量,为了简化公式,我们令,则公式则表示为:

       技术分享

       此时h中的参数是一个n+1维的向量,训练实例也都是n+1维的向量。

       因此公式可以简化为:

       技术分享

       其中上标T代表了矩阵的转置。


- Gradient descent for multiple variables

       与单变量/特征线性回归相似,在多变量/特征线性回归中,我们也将定义一个代价函数,即:

       技术分享

       我们的目标和单变量/特征线性回归中的问题相同,就是要找出使得代价函数最小的参数组合。

       因此,多变量/线性回归梯度下降算法为:

       技术分享

       即:

       技术分享

       求导数后可以得到:

       技术分享

       之后,我们通过随机更新一系列的值并计算代价函数,直到收敛。

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。