万象云档 本次搜索耗时 1.851 秒,为您找到 94 个相关结果.
  • 分布式通讯包 - torch.distributed

    分布式通讯包 - torch.distributed 基本 初始化 torch.distributed.init_process_group(backend, init_method=’env://‘, kwargs) torch.distributed.get_rank() torch.distributed.get_world_size() TC...
  • CUDA 语义

    CUDA 语义 3.1 设备分配 3.2 异步执行 3.2.1 CUDA 流 3.3 内存管理 3.4.1 设备诊断 3.4 使用固定的内存缓冲区 3.5 使用 nn.DataParallel 代替多线程处理 译者署名 CUDA 语义 异步执行 CUDA 流 内存管理 最佳实践 设备无关代码 使用固定的内存缓冲区 使用...
  • 常见问题

    常见问题 我的模型报告 “cuda runtime error(2): out of memory” 我的 GPU 内存没有正确释放 我的多个数据加载器返回相同的随机数 我的回归网络不能使用数据并行 译者署名 常见问题 我的模型报告 “cuda runtime error(2): out of memory” 如错误消息所示,您的GPU 上...
  • torch.utils.cpp_extension

    torch.utils.cpp_extension torch.utils.cpp_extension.CppExtension(name, sources, args, *kwargs) torch.utils.cpp_extension.CUDAExtension(name, sources, args, *kwargs) torch.utils.c...
  • 扩展 PyTorch

    扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加一个Module 。 编写自定义的 C 扩展 译者署名 扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加 Module 编写自定义 C 扩展 本篇文章中包含如何扩展torch.nn ,torch.auto...
  • 自动求导机制

    自动求导机制 向后排除子视图: requires_grad autograd 如何编码历史信息: Variable 上的 In-place 操作: In-place 正确性检测: 译者署名 自动求导机制 从后向中排除子图 requires_grad volatile 自动求导如何编码历史信息 Variable 上的 In-pl...
  • torch.Tensor

    torch.Tensor abs() abs_() acos() acos_() add(value) add_(value) addbmm(beta=1, mat, alpha=1, batch1, batch2) addbmm_(beta=1, mat, alpha=1, batch1, batch2) addcdiv(value=1, ...
  • 多进程最佳实践

    多进程最佳实践 一、CUDA 张量的共享 1、避免和防止死锁 2、重用通过队列发送的缓冲区 3、异步多进程训练(如: Hogwild) 4、Hogwild 译者署名 多进程最佳实践 CUDA 张量的共享 最佳实践和技巧 避免和防止死锁 重用通过队列发送的缓冲区 异步多进程训练 hogwild torch.multipro...
  • torchvision.datasets

    torchvision.datasets MNIST COCO LSUN ImageFolder Imagenet-12 CIFAR STL10 SVHN PhotoTour 译者署名 torchvision.datasets torchvision.datasets 中包含了以下数据集 MNIST COCO(用于图像标注和目...
  • 如何保证消息队列的高可用?

    如何保证消息队列的高可用? 面试题 面试官心理分析 面试题剖析 RabbitMQ 的高可用性 单机模式 普通集群模式(无高可用性) 镜像集群模式(高可用性) Kafka 的高可用性 如何保证消息队列的高可用? 面试题 如何保证消息队列的高可用? 面试官心理分析 如果有人问到你 MQ 的知识,高可用是必问的 。上一讲 提到,MQ 会...