万象云档 本次搜索耗时 1.896 秒,为您找到 176 个相关结果.
  • 扩展 PyTorch

    扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加一个Module 。 编写自定义的 C 扩展 译者署名 扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加 Module 编写自定义 C 扩展 本篇文章中包含如何扩展torch.nn ,torch.auto...
  • Multi-GPU examples

    Multi-GPU examples DataParallel Part of the model on CPU and part on the GPU Multi-GPU examples 译者:@unknown 校对者:@bringtree 数据并行是指当我们将 mini-batch 的样本分成更小的 mini-batches, 并...
  • 自动求导机制

    自动求导机制 向后排除子视图: requires_grad autograd 如何编码历史信息: Variable 上的 In-place 操作: In-place 正确性检测: 译者署名 自动求导机制 从后向中排除子图 requires_grad volatile 自动求导如何编码历史信息 Variable 上的 In-pl...
  • torch.Tensor

    torch.Tensor abs() abs_() acos() acos_() add(value) add_(value) addbmm(beta=1, mat, alpha=1, batch1, batch2) addbmm_(beta=1, mat, alpha=1, batch1, batch2) addcdiv(value=1, ...
  • 针对NLP的Pytorch深度学习

    针对NLP的Pytorch深度学习 针对NLP的Pytorch深度学习 译者:@JingTao 、@friedhelm739 作者 : Robert Guthrie 本教程将带你浏览基于Pytorch深度学习编程的核心思想.其中很多思想(例如计算图形抽象化以及自动求导) 并不是Pytorch特有的,他们和任何深度学习工具包都是相关的. ...
  • 多进程最佳实践

    多进程最佳实践 一、CUDA 张量的共享 1、避免和防止死锁 2、重用通过队列发送的缓冲区 3、异步多进程训练(如: Hogwild) 4、Hogwild 译者署名 多进程最佳实践 CUDA 张量的共享 最佳实践和技巧 避免和防止死锁 重用通过队列发送的缓冲区 异步多进程训练 hogwild torch.multipro...
  • 数据加载和处理教程

    数据加载和处理教程 Dataset类 Transforms Compose transforms 迭代整个数据集 后记: torchvision 数据加载和处理教程 译者:@distant1219 校对者:@bringtree 作者 : Sasank Chilamkurthy 在解决机器学习问题时, 我们需要付出很多努力来准...
  • torch.utils.cpp_extension

    torch.utils.cpp_extension torch.utils.cpp_extension.CppExtension(name, sources, args, *kwargs) torch.utils.cpp_extension.CUDAExtension(name, sources, args, *kwargs) torch.utils.c...
  • CUDA 语义

    CUDA 语义 内存管理 最佳实践 设备无关代码 使用固定的内存缓冲区 使用 nn.DataParallel 替代 multiprocessing CUDA 语义 译者:@Chris 校对者:@Twinkle torch.cuda 被用于设置和运行 CUDA 操作. 它会记录当前选择的 GPU, 并且分配的所有 CUDA 张...
  • torch.onnx

    torch.onnx 示例:从Pytorch到Caffe2的端对端AlexNet模型 局限 支持的运算符 Functions torch.onnx 译者:@Haofan Wang 校对者:@aleczhang torch.onnx 模块可以将模型导出成 ONNX IR 形式.被导出的模型可以通过 ONNX 库被重新导入, 然后转化...