学习资源站
首页
视频课程
学习专栏
深度学习从0基础到入门:算法原理 + 全流程实战 + 案例作业
← 返回课程列表
#1
1. 1.1 欢迎
播放
#2
2. 1.2 什么是神经网络
播放
#3
3. 1.3 用神经网络进行监督学习
播放
#4
4. 1.4 为什么深度学习会兴起?
播放
#5
5. 1.5 关于这门课
播放
#6
6. 1.6 课程资源
播放
#7
7. 2.1 二分分类
播放
#8
8. 2.2 logistic 回归
播放
#9
9. 2.3 logistic 回归损失函数
播放
#10
10. 2.4 梯度下降法
播放
#11
11. 2.5 导数
播放
#12
12. 2.6 更多导数的例子
播放
#13
13. 2.7 计算图
播放
#14
14. 2.8 使用计算图求导
播放
#15
15. 2.9 logistic 回归中的梯度下降法
播放
#16
16. 2.10 m 个样本的梯度下降
播放
#17
17. 2.11 向量化
播放
#18
18. 2.12 向量化的更多例子
播放
#19
19. 2.13 向量化 logistic 回归
播放
#20
20. 2.14 向量化 logistic 回归的梯度输出
播放
#21
21. 2.15 Python 中的广播
播放
#22
22. 2.16 关于 python _ numpy 向量的说明
播放
#23
23. 2.17 Jupyter _ ipython 笔记本的快速指南
播放
#24
24. 2.18 (选修)logistic 损失函数的解释
播放
#25
25. 3.1 神经网络概览
播放
#26
26. 3.2 神经网络表示
播放
#27
27. 3.3 计算神经网络的输出
播放
#28
28. 3.4 多个样本的向量化
播放
#29
29. 3.5 向量化实现的解释
播放
#30
30. 3.6 激活函数
播放
#31
31. 3.7 为什么需要非线性激活函数?
播放
#32
32. 3.8 激活函数的导数
播放
#33
33. 3.9 神经网络的梯度下降法
播放
#34
34. 3.10 (选修)直观理解反向传播
播放
#35
35. 3.11 随机初始化
播放
#36
36. 4.1 深层神经网络
播放
#37
37. 4.2 前向和反向传播
播放
#38
38. 4.3 深层网络中的前向传播
播放
#39
39. 4.4 核对矩阵的维数
播放
#40
40. 4.5 为什么使用深层表示
播放
#41
41. 4.6 搭建深层神经网络块
播放
#42
42. 4.7 参数 VS 超参数
播放
#43
43. 4.8 这和大脑有什么关系?
播放
#44
44. 1. 吴恩达采访 Geoffrey Hinton
播放
#45
45. 2. 吴恩达采访 Pieter Abbeel
播放
#46
46. 3. 吴恩达采访 Ian Goodfellow
播放
#47
47. 1.1 训练_开发_测试集
播放
#48
48. 1.2 偏差_方差
播放
#49
49. 1.3 机器学习基础
播放
#50
50. 1.4 正则化
播放
#51
51. 1.5 为什么正则化可以减少过拟合?
播放
#52
52. 1.6 Dropout 正则化
播放
#53
53. 1.7 理解 Dropout
播放
#54
54. 1.8 其他正则化方法
播放
#55
55. 1.9 归一化输入
播放
#56
56. 1.10 梯度消失与梯度爆炸
播放
#57
57. 1.11 神经网络的权重初始化
播放
#58
58. 1.12 梯度的数值逼近
播放
#59
59. 1.13 梯度检验
播放
#60
60. 1.14 关于梯度检验实现的注记
播放
#61
61. 2.1 Mini-batch 梯度下降法
播放
#62
62. 2.2 理解 mini-batch 梯度下降法
播放
#63
63. 2.3 指数加权平均
播放
#64
64. 2.4 理解指数加权平均
播放
#65
65. 2.5 指数加权平均的偏差修正
播放
#66
66. 2.6 动量梯度下降法
播放
#67
67. 2.7 RMSprop
播放
#68
68. 2.8 Adam 优化算法
播放
#69
69. 2.9 学习率衰减
播放
#70
70. 2.10 局部最优的问题
播放
#71
71. 3.1 调试处理
播放
#72
72. 3.2 为超参数选择合适的范围
播放
#73
73. 3.3 超参数训练的实践:Pandas VS Caviar
播放
#74
74. 3.4 正则化网络的激活函数
播放
#75
75. 3.5 将 Batch Norm 拟合进神经网络
播放
#76
76. 3.6 Batch Norm 为什么奏效?
播放
#77
77. 3.7 测试时的 Batch Norm
播放
#78
78. 3.8 Softmax 回归
播放
#79
79. 3.9 训练一个 Softmax 分类器
播放
#80
80. 3.10 深度学习框架
播放
#81
81. 3.11 TensorFlow
播放
#82
82. 1. 吴恩达采访 Yoshua Bengio
播放
#83
83. 2. 吴恩达采访 林元庆
播放
#84
84. 1.1 为什么是 ML 策略
播放
#85
85. 1.2 正交化.mp4
播放
#86
86. 1.3 单一数字评估指标
播放
#87
87. 1.4 满足和优化指标
播放
#88
88. 1.5 训练_开发_测试集划分
播放
#89
89. 1.6 开发集合测试集的大小
播放
#90
90. 1.7 什么时候该改变开发_测试集和指标
播放
#91
91. 1.8 为什么是人的表现
播放
#92
92. 1.9 可避免偏差
播放
#93
93. 1.10 理解人的表现
播放
#94
94. 1.11 超过人的表现
播放
#95
95. 1.12 改善你的模型的表现
播放
#96
96. 2.1 进行误差分析
播放
#97
97. 2.2 清除标注错误的数据
播放
#98
98. 2.3 快速搭建你的第一个系统,并进行迭代
播放
#99
99. 2.4 在不同的划分上进行训练并测试
播放
#100
100. 2.5 不匹配数据划分的偏差和方差
播放
#101
101. 2.6 定位数据不匹配
播放
#102
102. 2.7 迁移学习
播放
#103
103. 2.8 多任务学习
播放
#104
104. 2.9 什么是端到端的深度学习
播放
#105
105. 2.10 是否要使用端到端的深度学习
播放
#106
106. 1. 采访 Andrej Karpathy
播放
#107
107. 2. 采访 Ruslan Salakhutdinov
播放
#108
108. 1.1 计算机视觉
播放
#109
109. 1.2 边缘检测示例
播放
#110
110. 1.3 更多边缘检测内容
播放
#111
111. 1.4 Padding
播放
#112
112. 1.5 卷积步长
播放
#113
113. 1.6 三维卷积
播放
#114
114. 1.7 单层卷积网络
播放
#115
115. 1.8 简单卷积网络示例
播放
#116
116. 1.9 池化层
播放
#117
117. 1.10 卷积神经网络示例.mp4
播放
#118
118. 1.11 为什么使用卷积?
播放
#119
119. 2.1 为什么要进行实例探究?
播放
#120
120. 2.2 经典网络
播放
#121
121. 2.3 残差网络
播放
#122
122. 2.4 残差网络为什么有用?
播放
#123
123. 2.5 网络中的网络以及 1×1 卷积
播放
#124
124. 2.6 谷歌 Inception 网络简介
播放
#125
125. 2.7 Inception 网络
播放
#126
126. 2.8 使用开源的实现方案
播放
#127
127. 2.9 迁移学习
播放
#128
128. 2.10 数据扩充
播放
#129
129. 2.11 计算机视觉现状
播放
#130
130. 3.1 目标定位
播放
#131
131. 3.2 特征点检测
播放
#132
132. 3.3 目标检测
播放
#133
133. 3.4 卷积的滑动窗口实现
播放
#134
134. 3.5 Bounding Box预测
播放
#135
135. 3.6 交并比
播放
#136
136. 3.7 非极大值抑制
播放
#137
137. 3.8 Anchor Boxes
播放
#138
138. 3.9 YOLO 算法
播放
#139
139. 3.10 候选区域
播放
#140
140. 4.1 什么是人脸识别?
播放
#141
141. 4.2 One-Shot 学习
播放
#142
142. 4.3 Siamese 网络
播放
#143
143. 4.4 Triplet 损失
播放
#144
144. 4.5 面部验证与二分类
播放
#145
145. 4.6 什么是神经风格转换?
播放
#146
146. 4.7 什么是深度卷积网络?
播放
#147
147. 4.8 代价函数
播放
#148
148. 4.9 内容代价函数
播放
#149
149. 4.10 风格代价函数
播放
#150
150. 4.11 一维到三维推广
播放
#151
151. 1.1为什么选择序列模型
播放
#152
152. 1.2数学符号
播放
#153
153. 1.3循环神经网络
播放
#154
154. 1.4通过时间的反向传播
播放
#155
155. 1.5不同类型的循环神经网络
播放
#156
156. 1.6 语言模型和序列生成
播放
#157
157. 1.7 新序列采样
播放
#158
158. 1.8带有神经网络的梯度消失
播放
#159
159. 1.9 GRU 单元
播放
#160
160. 1.10 长短期记忆(LSTM)
播放
#161
161. 1.11 双向神经网络
播放
#162
162. 1.12 深层循环神经网络
播放
#163
163. 2.1 词汇表征
播放
#164
164. 2.2 使用词嵌入
播放
#165
165. 2.3 词嵌入的特性
播放
#166
166. 2.4 嵌入矩阵
播放
#167
167. 2.5 学习词嵌入
播放
#168
168. 2.6 Word2Vec
播放
#169
169. 2.7 负采样
播放
#170
170. 2.8 GloVe 词向量
播放
#171
171. 2.9 情绪分类
播放
#172
172. 2.10 词嵌入除偏
播放
#173
173. 3.1 基础模型
播放
#174
174. 3.2 选择最可能的句子
播放
#175
175. 3.3 定向搜索
播放
#176
176. 3.4 改进定向搜索
播放
#177
177. 3.5 定向搜索的误差分析
播放
#178
178. 3.6 Bleu 得分(选修)
播放
#179
179. 3.7 注意力模型直观理解
播放
#180
180. 3.8 注意力模型
播放
#181
181. 3.9 语音辨识
播放
#182
182. 3.10 触发字检测
播放
#183
183. 3.11 结论和致谢
播放