数智图书馆-无锡数智政务 本次搜索耗时 6.200 秒,为您找到 796 个相关结果.
  • 空标题文档

    8.7 创建类装饰器 和装饰一个函数类似,也可以写一个类装饰器,用来向类中添加功能。基本的原则都是一致的。装饰器是一个函数(或者一个可调用对象)。它接受一个类作为参数,返回一个类作为返回值。 在类定义中,我们的切入点很有限。大多数情况下,类装饰器会将额外的功能包裹进类中。从技术上来说,创建一个封装了原始类的类是可以的。但这种做法有一定的难度,因为包装类...
  • 9.4 小结

    6 2025-06-17 《SQL必知必会》
    9.4 小结 9.4 小结 聚集函数用来汇总数据。SQL支持5个聚集函数,可以用多种方法使用它们,返回所需的结果。这些函数很高效,它们返回结果一般比你在自己的客户端应用程序中计算要快得多。
  • 6.2.9 讨论

    6.2.9 讨论 6.2.9 讨论 分布式存储系统有两个目标:一个是可扩展性,最终目标是线性可扩展;另外一个是功能,最终目标是支持全功能SQL。Megastore是一个介于传统的关系型数据库和分布式NoSQL系统之间的存储系统,融合了SQL和NoSQL两者的优势。 Megastore的主要创新点包括: ●提出实体组的数据模型。通过实体组划分数据,实...
  • 3.3 多维数组的运算

    3.3 多维数组的运算 3.3.1 多维数组 3.3.2 矩阵乘法 3.3.3 神经网络的内积 3.3 多维数组的运算 如果掌握了 NumPy 多维数组的运算,就可以高效地实现神经网络。因此,本节将介绍 NumPy 多维数组的运算,然后再进行神经网络的实现。 3.3.1 多维数组 简单地讲,多维数组就是“数字的集合”,数字排成一列的集合、排成...
  • 3.4 3 层神经网络的实现

    3.4 3 层神经网络的实现 3.4.1 符号确认 3.4.2 各层间信号传递的实现 3.4.3 代码实现小结 3.4 3 层神经网络的实现 现在我们来进行神经网络的实现。这里我们以图 3-15 的 3 层神经网络为对象,实现从输入到输出的(前向)处理。在代码实现方面,使用上一节介绍的 NumPy 多维数组。巧妙地使用 NumPy 数组,可以用很...
  • 3.7 小结

    3.7 小结 3.7 小结 本章介绍了神经网络的前向传播。本章介绍的神经网络和上一章的感知机在信号的按层传递这一点上是相同的,但是,向下一个神经元发送信号时,改变信号的激活函数有很大差异。神经网络中使用的是平滑变化的 sigmoid 函数,而感知机中使用的是信号急剧变化的阶跃函数。这个差异对于神经网络的学习非常重要,我们将在下一章介绍。 本章所学的...
  • 4.5.2 mini-batch 的实现

    4.5.2 mini-batch 的实现 4.5.3 基于测试数据的评价 numerical_gradient() 的高速版,将在下一章实现 TwoLayerNet 类有 params 和 grads 两个字典型实例变量。params 变量中保存了权重参数,比如 params['W1'] 以 NumPy 数组的形式...
  • 第 5 章 误差反向传播法

    第 5 章 误差反向传播法 第 5 章 误差反向传播法 上一章中,我们介绍了神经网络的学习,并通过数值微分计算了神经网络的权重参数的梯度(严格来说,是损失函数关于权重参数的梯度)。数值微分虽然简单,也容易实现,但缺点是计算上比较费时间。本章我们将学习一个能够高效计算权重参数的梯度的方法——误差反向传播法。 要正确理解误差反向传播法,我个人认为有两种方...
  • 5.7 误差反向传播法的实现

    5.7 误差反向传播法的实现 5.7.1 神经网络学习的全貌图 5.7.2 对应误差反向传播法的神经网络的实现 5.7 误差反向传播法的实现 通过像组装乐高积木一样组装上一节中实现的层,可以构建神经网络。本节我们将通过组装已经实现的层来构建神经网络。 5.7.1 神经网络学习的全貌图 在进行具体的实现之前,我们再来确认一下神经网络学习的全貌图。...
  • 5.8 小结

    5.8 小结 5.8 小结 本章我们介绍了将计算过程可视化的计算图,并使用计算图,介绍了神经网络中的误差反向传播法,并以层为单位实现了神经网络中的处理。我们学过的层有 ReLU 层、Softmax-with-Loss 层、Affine 层、Softmax 层等,这些层中实现了 forward 和 backward 方法,通过将数据正向和反向地传播,...