万象云档 本次搜索耗时 1.557 秒,为您找到 170 个相关结果.
  • PYTHORCH: NN

    PYTHORCH: NN PYTHORCH: NN 原文:https://pytorch.org/tutorials/beginner/examples_nn/polynomial_nn.html#sphx-glr-beginner-examples-nn-polynomial-nn-py 校对:DrDavidS 一个三阶多项式,通过最小化...
  • 01 AI聊天机器人:Bard

    127 2025-05-09 《ChatGPT:AI革命》
    01 AI聊天机器人:Bard 01 AI聊天机器人:Bard Bard是一款基于LaMDA(Language Model for Dialogue Ap plications)模型开发的聊天机器人(见下图)。它是谷歌为了应对ChatGPT的挑战而推出的对标产品。 下面根据目前已知的信息对比一下ChatGPT和Bard。 ChatGPT已于20...
  • torch.utils.data

    torch.utils.data torch.utils.data 译者:@之茗 校对者:@aleczhang class torch . utils . data . Dataset 表示 Dataset 的抽象类. 所有其它数据集都应继承该类. 所有子类都应该重写 __len__ , 提供数据集大小的方法, 和 __get...
  • 数据建模

    数据建模 undefined数据建模 undefined根据比赛章程,可知分为以下几项 undefined一、数据集类 undefined二、模型类 数据建模 undefined数据建模 undefined根据比赛章程,可知分为以下几项 undefined一、数据集类 数据集加载 : { ①加载图像数据集 ②了解图像数据集对应代码...
  • torchvision.datasets

    torchvision.datasets MNIST Fashion-MNIST COCO Captions Detection LSUN ImageFolder Imagenet-12 CIFAR STL10 SVHN PhotoTour torchvision.datasets 译者:@那伊抹微笑 、@dawenzi123...
  • PyTorch 深度学习: 60 分钟极速入门教程

    PyTorch 深度学习: 60 分钟极速入门教程 PyTorch 深度学习: 60 分钟极速入门教程 译者:@小王子 校对者:@李子文 Author : Soumith Chintala 本教程的目标: 更高层次地理解 PyTorch 的 Tensor (张量) 库以及神经网络. 学会训练一个小的神经网络用来对图像进行分类 本...
  • PyTorch:optim

    PyTorch:optim PyTorch:optim 原文:https://pytorch.org/tutorials/beginner/examples_nn/polynomial_optim.html#sphx-glr-beginner-examples-nn-polynomial-optim-py 经过训练的三阶多项式,可以通过最...
  • 第十六段

    122 2025-06-07 《我这一辈子》
    第十六段 第十六段 穷人的命——并不像那些施舍稀粥的慈善家所想的——不是几碗粥所能救活了的;有粥吃,不过多受几天罪罢了,早晚还是死。我的履历就跟这样的粥差不多,它只能帮助我找上个小事,教我多受几天罪;我还得去当巡警。除了说我当巡警,我还真没法介绍自己呢!它就像颗不体面的痣或瘤子,永远跟着我。我懒得说当过巡警,懒得再去当巡警,可是不说不当,还真连碗饭也吃...
  • PyTorch: 定义新的autograd函数

    PyTorch: 定义新的autograd函数 PyTorch: 定义新的autograd函数 译者:@yongjay13 、@speedmancs 校对者:@bringtree 本例中的全连接神经网络有一个隐藏层, 后接ReLU激活层, 并且不带偏置参数. 训练时通过最小化欧式距离的平方, 来学习从x到y的映射. 在此实现中, 我们...
  • 十、模型选择

    十、模型选择 在模型选择期间寻找最佳预处理步骤 使用网格搜索的超参数调优 使用随机搜索的超参数调优 使用网格搜索的模型选择 带有参数选项的流水线 十、模型选择 作者:Chris Albon 译者:飞龙 协议:CC BY-NC-SA 4.0 在模型选择期间寻找最佳预处理步骤 在进行模型选择时,我们必须小心正确处理预处理。 首先...