Mirror
  • 首页
  • 时间线
  • 分类
  • 标签
  • 图库
  • 里世界
  • 关于我

15.1. 吴恩达:总结和感谢

吴恩达:总结和感谢 欢迎来到《机器学习》课的最后一段视频。我们已经一起学习很长一段时间了。在最后这段视频中,我想快速地回顾一下这门课的主要内容,然后简单说几句想说的话。 作为这门课的结束时间,那么我们学到了些什么呢?在这门课中,我们花了大量的时间介绍了诸如线性回归、逻辑回归、神经网络、支持向量机等等一些监督学习算法,这类算法具有带标签的数据和样本,比如\(\{x^{(i)},y^{(i)}\}
2021-08-28
学习笔记 > 机器学习基础课程——吴恩达 > 15. 总结和感谢

14.2. 滑动窗口分类器

滑动窗口分类器 上一节中照片OCR系统的流水线: 本节课将着重于“Text detection”文字检测的部分,这一部分的功能由一种称为滑动窗口分类器(Sliding window classifier)的算法承担。 滑动窗口分类器能够全局扫描整幅图像并检测图像上的有文字的部分。 案例:行人检测 滑动窗口的最经典应用是行人检测,相比于文字检测要简单的地方在于:行人检测所检测的目标拥有
2021-08-26
学习笔记 > 机器学习基础课程——吴恩达 > 14. 机器学习实例:光学字符识别(OCR)

14.3. 文字分离·字符识别

文字分离·字符识别 照片OCR系统的流水线: 本节将着重于“Character segmentation”文字分离和“Character recognition”字符识别的部分。 这一部分需要再次应用监督学习算法制作分类器。 文字分离 构建数据集 文字分离的数据集同样由正样本和负样本组成,其中正样本是图像中有两个字符分割线的图像,负样本是没有字符分割线的图像。负样本由单个的字符图像
2021-08-26
学习笔记 > 机器学习基础课程——吴恩达 > 14. 机器学习实例:光学字符识别(OCR)

14.1. 问题背景与框架设计

问题背景与框架设计 本章以光学字符识别技术为实例,介绍一个机器学习系统是如何被组装起来的,以及设计机器学习系统的路线。 问题背景 照片光学字符识别(Photo OCR),顾名思义,即机器学习能够自动识别照片当中包含的文字。对于给定的照片,算法会全局扫描照片,然后找出照片中的文字信息。在找出这些信息后,算法会对这些文字进行识别。 框架设计·流水线 一个照片光学字符识别系统的框架设计流水
2021-08-24
学习笔记 > 机器学习基础课程——吴恩达 > 14. 机器学习实例:光学字符识别(OCR)

13.4. 在线学习

在线学习 在线学习(Online learning)可以针对于连续的数据流进行学习。 今天,许多大型网站或者许多大型网络公司,使用不同版本的在线学习机制算法,从大批的涌入又离开网站的用户身上进行学习。 梯度下降的在线学习 对于数据流,在线学习采用了类似于随机梯度下降/小批量梯度下降的方式进行学习。在线学习的更新方程为: \[θ_j:=θ_j-α(h_θ(x)-y)x\] 和随机梯度下降/小
2021-08-22
学习笔记 > 机器学习基础课程——吴恩达 > 13. 大规模机器学习

13.3. 小批量梯度下降算法

小批量梯度下降算法 小批量梯度下降算法(Mini-batch gradient descent)是另一种改善由大数据造成的计算量问题的梯度下降算法。小批量梯度下降算法的思路介于批量梯度下降算法和随机梯度下降算法之间,在一些情况下的表现比随机梯度下降算法更为出色。 小批量梯度下降算法的思路 回顾之前的梯度下降算法: 批量梯度下降算法在一次迭代中使用了数据集中所有的样本 随机梯度下降
2021-08-22
学习笔记 > 机器学习基础课程——吴恩达 > 13. 大规模机器学习

13.5. 并行计算(减少映射)

并行计算(减少映射) 减少映射(Map-reduce)是第二种能够在大规模机器学习中用于减少计算量的算法。本质上,减少映射的工作就是将机器学习算法进行并行化处理,使得多个计算机共同、同时承担梯度下降算法中的一部分计算内容以缩短计算时间和单台计算机的计算量。减少映射与随机梯度下降一样重要。 机器学习算法能够被减少映射的关键在于算法本身或者是其中的某些步骤能够以求和的方式表示。事实上,大规模机器学
2021-08-22
学习笔记 > 机器学习基础课程——吴恩达 > 13. 大规模机器学习

13.2. 随机梯度下降算法

随机梯度下降算法 在13.1. 中提到使用传统的梯度下降算法来最小化大数据集的代价函数计算量非常大,因此需要找到一种方式来改进现有的梯度下降算法。一种可行的方式是随机梯度下降算法(Stochastic gradient desent)。 回顾:线性回归的梯度下降算法 对于假设函数:\(h_θ(x)=∑_{j=0}^mθ_jx_j\) 其训练集的代价函数为: \[J_{train}(θ)=
2021-08-22
学习笔记 > 机器学习基础课程——吴恩达 > 13. 大规模机器学习

标记说明

标记说明 格式 123456789## 语法主干- 词性接续1 【翻译1】[用法类型1],解释1。特殊说明1。 固定搭配1 例:例句1 - 词性接续2 【翻译2】[用法类型2],解释2。特殊说明2。 固定搭配2 例:例句2 特别说明: [用法类型]表示该用法使用的场合,标记有: [口]:口语。 [书]:书面语。 [正式]:只能在正式场合使用。
2021-08-21
语言 > 日语

10.1. 降维的目的

降维的目的 降维是非监督学习中常用的一种算法,使用降维的目的有如下两个: 压缩数据 使用降维的其中一个目的是压缩数据,压缩数据能够减小算法的计算量的同时提高计算速度。 降维的手段是合并一些高度相关的特征。 具体而言,如果两个特征在二维空间内呈现出线性相关,那么则可以设定一个新的特征,将所有数据在这个二维空间上的分布投射至一维数轴上,如图所示。 对于三个特征,如果数据都分布在这个三维
2021-08-21
学习笔记 > 机器学习基础课程——吴恩达 > 10. 主成分分析
1…2021222324…32

搜索

如果您发现任何错误,可以通过邮箱1017179431@qq.com告知我,谢谢。
本博客所有文章全部为我手工编写。请尊重我的劳动成果,转载请注明出处。
基于Hexo© 和 Fluid搭建的博客。
©OrekiKigiha 2025
总访问量 次 总访客数 人