好书推荐 好书速递 排行榜 读书文摘

深入浅出神经网络与深度学习

深入浅出神经网络与深度学习
作者:[澳]迈克尔·尼尔森(Michael Nielsen)
译者:朱小虎
出版社:人民邮电出版社
出版年:2020-08
ISBN:9787115542090
行业:计算机
浏览数:78

内容简介

本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够编写Python代码解决复杂的模式识别问题。

这是一本非常好的深度学习入门书,相信一定会得到大家的喜爱。

——李航

字节跳动科技有限公司人工智能实验室总监、ACL会士、IEEE会士、ACM杰出科学家

这本书从神经网络和深度学习的基本原理入手,详细地解释了神经网络和深度学习的核心概念,兼顾理论和实践,是深入了解神经网络和深度学习的一本好书。

——马少平

清华大学计算机系教授、博士生导师

我从看完第1章开始就被其深入浅出的文字以及清晰的代码实现所吸引。我相信,这本书的正式出版一定会让更多的读者受益。

——车万翔

哈尔滨工业大学计算机科学与技术学院信息检索研究中心教授、博士生导师

这是一本独特且有趣的神经网络入门书,其细致程度基本上做到了手把手教学,非常适合初学者。我期待这本书能照亮更多人的人工智能之路。

——俞扬

南京大学人工智能学院教授、博士生导师

这是一位物理学家写的机器学习书,内容清晰易懂,对神经网络的描述也直观形象,非常适合用来入门神经网络和深度学习。

——邱锡鹏

复旦大学计算机学院教授、博士生导师

这是一本关于神经网络和深度学习的“亲近”易读的书,它将带领你轻松入门人工智能世界。

——张伟楠

上海交通大学计算机科学与工程系副教授、博士生导师

这本不可多得的好书通过丰富的示例和代码实践做到了知行合一。

——王昊奋

同济大学特聘研究员、OpenKG联合创始人

这本量子物理学家笔下的好书以一个个生动的实例驱动你恨不得一口气读完!

——徐涵

华为欧洲研究院高级战略规划经理

......(更多)

作者简介

【作者简介】

迈克尔·尼尔森(Michael Nielsen)

计算机科学家、量子物理学家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大学、斯坦福大学、麻省理工学院、剑桥大学、牛津大学等高校以及谷歌和微软等公司做主题演讲,另著有高分作品《重塑发现》和《量子计算和量子信息》。

【译者简介】

朱小虎

University AI创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了TASA、DL Center(深度学习知识中心全球价值网络)和AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多家世界500强企业提供人工智能方面的战略布局建议及落地实施等方面的咨询建议。

......(更多)

目录

本书赞誉

译者序

前言

第1章 使用神经网络识别手写数字 1

1.1 感知机 2

1.2 sigmoid神经元 7

1.3 神经网络的架构 11

1.4 一个简单的神经网络:分类手写数字 13

1.5 利用梯度下降算法进行学习 17

1.6 实现分类数字的神经网络 25

1.7 迈向深度学习 37

第2章 反向传播算法工作原理 41

2.1 热身:使用矩阵快速计算输出 41

2.2 关于代价函数的两个假设 43

2.3 阿达马积s⊙t 45

2.4 反向传播的4个基本方程 45

2.5 基本方程的证明(选学) 50

2.6 反向传播算法 51

2.7 反向传播代码 53

2.8 就何而言,反向传播算快 55

2.9 反向传播:全局观 56

第3章 改进神经网络的学习方法 60

3.1 交叉熵代价函数 60

3.1.1 引入交叉熵代价函数 64

3.1.2 使用交叉熵来对MNIST数字进行分类 71

3.1.3 交叉熵的含义与起源 72

3.1.4 softmax 74

3.2 过拟合和正则化 78

3.2.1 正则化 84

3.2.2 为何正则化有助于减轻过拟合 89

3.2.3 其他正则化技术 93

3.3 权重初始化 102

3.4 复探手写识别问题:代码 106

3.5 如何选择神经网络的超参数 116

3.6 其他技术 126

3.6.1 随机梯度下降算法的变化形式 126

3.6.2 其他人工神经元模型 129

3.6.3 有关神经网络的故事 132

第4章 神经网络可以计算任何函数的可视化证明 134

4.1 两个预先声明 136

4.2 一个输入和一个输出的普遍性 137

4.3 多个输入变量 146

4.4 不止sigmoid神经元 154

4.5 修补阶跃函数 156

4.6 小结 159

第5章 为何深度神经网络很难训练 160

5.1 梯度消失问题 163

5.2 梯度消失的原因 168

5.2.1 为何出现梯度消失 170

5.2.2 梯度爆炸问题 171

5.2.3 梯度不稳定问题 172

5.2.4 梯度消失问题普遍存在 172

5.3 复杂神经网络中的梯度不稳定 173

5.4 深度学习的其他障碍 174

第6章 深度学习 175

6.1 卷积神经网络入门 176

6.1.1 局部感受野 178

6.1.2 共享权重和偏置 180

6.1.3 池化层 182

6.2 卷积神经网络的实际应用 184

6.2.1 使用修正线性单元 188

6.2.2 扩展训练数据 189

6.2.3 插入额外的全连接层 191

6.2.4 集成神经网络 192

6.3 卷积神经网络的代码 195

6.4 图像识别领域近期的进展 208

6.4.1 2012年的LRMD论文 208

6.4.2 2012年的KSH论文 209

6.4.3 2014年的ILSVRC竞赛 211

6.4.4 其他活动 212

6.5 其他深度学习模型 214

6.5.1 循环神经网络 214

6.5.2 长短期记忆单元 216

6.5.3 深度信念网络、生成模型和玻尔兹曼机 216

6.5.4 其他想法 217

6.6 神经网络的未来 217

6.6.1 意图驱动的用户界面 217

6.6.2 机器学习、数据科学和创新的循环 218

6.6.3 神经网络和深度学习的作用 218

6.6.4 神经网络和深度学习将主导人工智能 219

附录 是否存在关于智能的简单算法 222

版权声明

......(更多)

读书文摘

那么有一个较为可信的理由可以解释为什么用10个输出而非4个:如果有4个输出,那么第1个神经元将设法判断数字的最高有效位是什么。数字的最高有效位于数字形状不容易联系到一起。

......(更多)

猜你喜欢

点击查看