数智图书馆-无锡数智政务 本次搜索耗时 5.719 秒,为您找到 1443 个相关结果.
  • 空标题文档

    14.8 多态和继承 接下来,我们来看对象最为重要的两个方面:多态(polymorphism) 和继承(inheritance)。这两个词很长很深奥,不过正是因为有这两个方面,才使得对象如此有用。我会在下面几节清楚地解释它们的含义。 多态——同一个方法,不同的行为 非常简单,多态是指对于不同的类,可以有同名的两个(或多个)方法。取决于这些方法分别应用...
  • 空标题文档

    15.6 命名空间 卡特提到的内容与命名空间(namespace)概念有关。这个话题有点复杂,不过确实需要知道,所以现在就来讨论这个概念。 什么是命名空间 假设在你们学校,你在 Morton 老师的班里,班里有个学生名叫 Shawn。现在 Wheeler 老师教的那个班也有一个名叫 Shawn 的学生。如果你在自己的班里说“Shawn 有一个新书...
  • 空标题文档

    16.4 单个像素 有时我们并不想画一个圆或矩形,而是希望画单个的点或像素。比如,我们要创建数学程序,想画一条正弦曲线。 别担心,放松点! 如果你不知道什么是正弦曲线也不用担心。学习本章的内容,只要知道这是一种波浪形的曲线就可以了。 另外也不用担心后面几个示例程序中的数学公式,按代码清单原样键入这些程序就行。这些公式只是为了保证得到大小合适...
  • 空标题文档

    22.7 写文件 如果你想更持久地存储程序的信息,可以看着屏幕,把这些信息抄写在纸上。不过这样根本无法体现出计算机的作用! 比较好的做法是把信息保存在硬盘上,这样一来,即使程序不再运行(即计算机已经关机),你的数据仍然能保留下来,供以后使用。其实你早已经这么做了。每次保存学校作业、图片、歌曲或者 Python 程序时,实际上都是将它们存储到硬盘上。 ...
  • 3.6 手写数字识别

    3.6 手写数字识别 3.6.1 MNIST 数据集 3.6.2 神经网络的推理处理 3.6.3 批处理 3.6 手写数字识别 介绍完神经网络的结构之后,现在我们来试着解决实际问题。这里我们来进行手写数字图像的分类。假设学习已经全部结束,我们使用学习到的参数,先实现神经网络的“推理处理”。这个推理处理也称为神经网络的前向传播 (forward p...
  • 4.3 数值微分

    4.3 数值微分 4.3.1 导数 4.3.2 数值微分的例子 4.3.3 偏导数 4.3 数值微分 梯度法使用梯度的信息决定前进的方向。本节将介绍梯度是什么、有什么性质等内容。在这之前,我们先来介绍一下导数。 4.3.1 导数 假如你是全程马拉松选手,在开始的 10 分钟内跑了 2 千米。如果要计算此时的奔跑速度,则为 2/10 = 0.2...
  • 5.6 Affine/Softmax 层的实现

    5.6 Affine/Softmax 层的实现 5.6.1 Affine 层 5.6.2 批版本的 Affine 层 5.6.3 Softmax-with-Loss 层 5.6 Affine/Softmax 层的实现 5.6.1 Affine 层 神经网络的正向传播中,为了计算加权信号的总和,使用了矩阵的乘积运算(NumPy 中是 np.dot...
  • 读入数据

    5.7.3 误差反向传播法的梯度确认 5.7.4 使用误差反向传播法的学习 参数 X 是图像数据、t 是正确解标签 accuracy(self, x, t) 计算识别精度 numerical_gradient(self, x, t) 通过数值微分计算关于权重参数的梯度(同上一章) gradi...
  • 6.2 权重的初始值

    6.2 权重的初始值 6.2.1 可以将权重初始值设为 0 吗 6.2.2 隐藏层的激活值的分布 6.2.3 ReLU的权重初始值 6.2.4 基于 MNIST 数据集的权重初始值的比较 6.2 权重的初始值 在神经网络的学习中,权重的初始值特别重要。实际上,设定什么样的权重初始值,经常关系到神经网络的学习能否成功。本节将介绍权重初始值的推荐值...
  • 6.4 正则化

    6.4 正则化 6.4.1 过拟合 6.4.2 权值衰减 6.4.3 Dropout 6.4 正则化 机器学习的问题中,过拟合 是一个很常见的问题。过拟合指的是只能拟合训练数据,但不能很好地拟合不包含在训练数据中的其他数据的状态。机器学习的目标是提高泛化能力,即便是没有包含在训练数据里的未观测数据,也希望模型可以进行正确的识别。我们可以制作复杂的...