8-1 非线性假设
这节课引入了神经网络。事实上神经网络是一个相对古老的算法,但是近几年,随着人类依次在象棋、围棋等领域败给以神经网络为基础的人工智能算法时,神经网络又活了起来。那么,我们就来具体讨论一下,既然我们已经有了线性回归、logistic回归,为什么还要学习神经网络算法。这节课就通过几个例子进行说明。
首先,我们从简单的房价预测说起。要更准确地预测一个房子的房价,预测一个房子我们值不值得购买,我们不可能像之前那样只考虑面积一个方面,还得考虑卧室数量、房子的年代等非常多的方面。所以,我们要考虑的特征数量非常多。假设我们有 100 个特征,在用传统的 logistic 回归时,如果仅考虑二次项,我们需要构造大概含有 5000 项的 logistic 回归,这是个非常庞大的计算量,这还是只考虑二次项的情况下,如果我们要考虑三次项,算法会更加庞大。这就需要我们研究更加方便的算法。
另一个例子就是我们熟悉的图像处理。我们知道一个图像是以像素值的方式存储在计算机中的,一幅图片对于计算机来说,就是一个数学矩阵。这里,我们就以一幅50*50大小的灰度图片为例。50*50的图片一共有 2500 个像素值,即 2500 个特征,如果用传统的logistic回归,就考虑二次项,我们就需要构建大约含有 3'000'000 项((2500*2500)/2)的 logistic 回归,计算量更加恐怖。在此说明一下,50*50的图像已经特别小了,而且我们不仅要处理灰度图,我们还要处理彩色图像。所以,对于大部分工作,仅有线性回归和logistic回归是不行的。
而对于神经网络来说,处理大量特征是非常容易的,这也就是近年来神经网络技术发展飞快的原因。
收藏
点赞
0
个赞
请登录后评论
TOP
切换版块
我已经把我写的所有笔记整理好了,都上传到AI Studio项目集里了,入口在这:
https://aistudio.baidu.com/aistudio/projectdetail/302097
勤奋,敬礼。
我之前写过一点,都在百度的这个社区里,你要是感兴趣的话就在我的主页里找一下吧,自己写的,有啥错误欢迎指教
这个是我自己写的笔记
笔记有合集之类的么?我百度搜过,内容和你发的这个不一样。你这个版本有地址链接么?分享下,谢谢。
就是你帖子里发布的内容,这个是笔记?不是书?
你指的是笔记吗
笔记吗?
这个有电子版或网址么?