【机器学习入门】Andrew NG《Machine Learning》课程笔记之二 :基本概念、代价函数、梯度下降和线性回归
来源:互联网 发布:windows高级选项菜单 编辑:程序博客网 时间:2024/06/08 01:34
机器学习基本概念
在开始正式的内容学习之前,先了解一些关于机器学习的基本概念
《机器学习》的作者Tom Mitchell给出了如下的定义:
A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience
其中
- E = 从对局/样本中习得的经验
- T = 任务/目标
- P = 赢得下一局比赛的概率(Probablity)
总的来说,设计出的程序能够像人一样,从多次反复的练习/样本中习得某种经验/规律,来完成某种特定的任务,并且在随着训练过程的进行,程序的表现也能够随之提高,就可以称之为机器学习(Machine Learning)
机器学习通常又可以分为两类:监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)
监督学习:
给定训练过程中的数据集,并且已知正确的输出结果(真实情况下的结果或者人工标签等),寻找输入与输出之间的关系。
另外,监督学习又可以分类为:回归(Regression)和分类(Classfication)- 回归:输出结果是连续的,例如房价的预测,期货价格的预测等
- 分类:输出结果是离散的,像多年前的猫和狗的图片费类问题
无监督学习:
由于缺乏足够的先验知识或者人工标注成本太高等其他原因,给定的数据集中不含有正确的结果,只能使用data-driven的方法从数据集中提取某些特征或者结构。例如,经常被使用的K-means算法就是无监督算法之一。
模型(Model)和代价函数(Cost Function)
在下图中展示了一个监督学习模型:
具体地说,首先给定数据集(Training Set),使用
为了解释代价函数,我们先引入一张图
图中的叉号代表我们的训练集,
假设直线
代价函数是用来反映/度量预测结果与实际结果的偏差,偏差越小算法效果越好,反之越差,上式其实就是一个均方差函数。
可以使用Matlab的surface函数来绘制出代价函数,直观地进行感受,下图是某个问题的代价函数,竖轴即为
梯度下降和线性回归
还是,从一张图开始
假定我们的
使用该公式对参数不断迭代,达到收敛的时候,参数即在谷底处。
其中的
根据红点的轨迹可以清楚地看出
- 当学习率过小时:梯度下降的速度过于缓慢
- 当学习率过大时:会使代价函数越过最小值点,从而无法收敛甚至发散
当理解了更新公式的意义之后,我们就可以用它来解决上面的线性回归问题,对代价函数求导有
将它代入更新公式就可以得到
使用这个公式进行迭代,通过等高线图可以发现得到谷底的两个参数值了
由于本人水平有限,难免出现错漏之处,欢迎批评指正
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之二 :基本概念、代价函数、梯度下降和线性回归
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之三:多元线性回归的梯度下降、特征缩放和正规方程
- Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 线性回归中的梯度下降法
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合
- 【转载】Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- Coursera 机器学习(by Andrew Ng)课程学习笔记(一)——简单的线性回归模型和梯度下降
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之五:神经网络简介
- 线性回归、梯度下降 - Andrew Ng机器学习公开课笔记1.1
- Andrew Ng机器学习课程笔记--week10--优化梯度下降
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之一 :课程简介
- 机器学习课程笔记-andrew ng 多参数线性回归
- 梯度下降与线性回归--《机器学习》课程学习笔记
- Coursera 机器学习(by Andrew Ng)课程学习笔记(二)——多元线性回归和正规方程
- Machine Learning - Andrew NG Class02 - 监督学习应用.梯度下降
- Andrew NG机器学习课程笔记系列之——Introduction to Machine Learning
- Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 梯度下降法
- ANDREW Ng教授的机器学习(Machine Learning)学习笔记(2)-- 线性回归模型(Linear regression model)
- 51nod 1179 最大的公约数
- 51Nod(1627)
- Hibernate 5;org.hibernate.MappingException: Unknown entity: com.my.model.User
- django基础知识
- SVM分类器的实现(包括交叉验证选择参数,Dlib,可视化)
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之二 :基本概念、代价函数、梯度下降和线性回归
- C++退出函数exit
- USACO-2008-Cow Contest
- 最大子序列数,只测试了几组数据,求大佬指点
- 【SpringBoot】1.SpringBoot介绍
- 【java.lang.UnsupportedClassVersionError】版本不一致出错
- 自定义注解
- RocketMQ多master多SLAVE配置
- convert G:/fs:ntfs