吴恩达机器学习笔记之非线性假设
杨凯kd 发布于2020-02-29 浏览:890 回复:9
0
收藏

8-1 非线性假设

这节课引入了神经网络。事实上神经网络是一个相对古老的算法,但是近几年,随着人类依次在象棋、围棋等领域败给以神经网络为基础的人工智能算法时,神经网络又活了起来。那么,我们就来具体讨论一下,既然我们已经有了线性回归、logistic回归,为什么还要学习神经网络算法。这节课就通过几个例子进行说明。

首先,我们从简单的房价预测说起。要更准确地预测一个房子的房价,预测一个房子我们值不值得购买,我们不可能像之前那样只考虑面积一个方面,还得考虑卧室数量、房子的年代等非常多的方面。所以,我们要考虑的特征数量非常多。假设我们有 100 个特征,在用传统的 logistic 回归时,如果仅考虑二次项,我们需要构造大概含有 5000 项的 logistic 回归,这是个非常庞大的计算量,这还是只考虑二次项的情况下,如果我们要考虑三次项,算法会更加庞大。这就需要我们研究更加方便的算法。

另一个例子就是我们熟悉的图像处理。我们知道一个图像是以像素值的方式存储在计算机中的,一幅图片对于计算机来说,就是一个数学矩阵。这里,我们就以一幅50*50大小的灰度图片为例。50*50的图片一共有 2500 个像素值,即 2500 个特征,如果用传统的logistic回归,就考虑二次项,我们就需要构建大约含有 3'000'000 项((2500*2500)/2)的 logistic 回归,计算量更加恐怖。在此说明一下,50*50的图像已经特别小了,而且我们不仅要处理灰度图,我们还要处理彩色图像。所以,对于大部分工作,仅有线性回归和logistic回归是不行的。

而对于神经网络来说,处理大量特征是非常容易的,这也就是近年来神经网络技术发展飞快的原因。

收藏
点赞
0
个赞
共9条回复 最后由杨凯kd回复于2020-03-05
#10杨凯kd回复于2020-03-05
#9 189******30回复
勤奋,敬礼。

我已经把我写的所有笔记整理好了,都上传到AI Studio项目集里了,入口在这:

https://aistudio.baidu.com/aistudio/projectdetail/302097

0
#9189******30回复于2020-03-05
#8 杨凯kd回复
我之前写过一点,都在百度的这个社区里,你要是感兴趣的话就在我的主页里找一下吧,自己写的,有啥错误欢迎指教
展开

勤奋,敬礼。

0
#8杨凯kd回复于2020-03-03
#6 189******30回复
笔记有合集之类的么?我百度搜过,内容和你发的这个不一样。你这个版本有地址链接么?分享下,谢谢。
展开

我之前写过一点,都在百度的这个社区里,你要是感兴趣的话就在我的主页里找一下吧,自己写的,有啥错误欢迎指教

0
#7杨凯kd回复于2020-03-03
#5 189******30回复
就是你帖子里发布的内容,这个是笔记?不是书?

这个是我自己写的笔记

0
#6189******30回复于2020-03-03
#4 杨凯kd回复
你指的是笔记吗

笔记有合集之类的么?我百度搜过,内容和你发的这个不一样。你这个版本有地址链接么?分享下,谢谢。

0
#5189******30回复于2020-03-03

就是你帖子里发布的内容,这个是笔记?不是书?

0
#4杨凯kd回复于2020-03-02
#2 189******30回复
这个有电子版或网址么?

你指的是笔记吗

0
#3杨凯kd回复于2020-03-02

笔记吗?

0
#2189******30回复于2020-03-02

这个有电子版或网址么?

0
TOP
切换版块