Чтобы получить память CUDA в PyTorch, вы можете использовать следующие методы:
-
Создание тензора. При создании тензора PyTorch вы можете явно указать устройство для выделения памяти CUDA. Например:
import torch tensor = torch.tensor([1, 2, 3], device='cuda') -
Перенос тензора. Вы можете перенести существующий тензор в память CUDA, используя метод
.to(). Например:import torch tensor = torch.tensor([1, 2, 3]) tensor = tensor.to('cuda') -
Распределение модели. При создании модели PyTorch вы можете выделить ее параметры и буферы в памяти CUDA с помощью метода
.cuda(). Например:import torch import torch.nn as nn model = nn.Linear(10, 5) model.cuda() -
Загрузка данных. Если вы загружаете данные для обучения или вывода, вы можете напрямую перенести входные и целевые данные в память CUDA. Например:
import torch input_data = torch.tensor([1, 2, 3], device='cuda') target_data = torch.tensor([4, 5, 6], device='cuda') -
Менеджер контекста. Вы можете использовать диспетчер контекста, чтобы временно выделить память CUDA для блока кода. Это полезно, если вы хотите ограничить использование памяти. Например:
import torch with torch.cuda.device('cuda'): # Code block where CUDA memory is available tensor = torch.tensor([1, 2, 3]) tensor = tensor.cuda()