1.作⽤:⽤来加载保存的模型⽂件。
torch.load()先在CPU上加载,不会依赖于保存模型的设备。如果加载失败,可能是因为没有包含某些设备,⽐如你在gpu上训练保存的模型,⽽在cpu上加载,可能会报错,此时,需要使⽤map_location来将存储动态重新映射到可选设备上,⽐如佳苗瑠华
map_location=torch.device('cpu'),意思是映射到cpu上,在cpu上加载模型,⽆论你这个模型从哪⾥训练保存的。
⼀句话:map_location适⽤于修改模型能在gpu上运⾏还是cpu上运⾏。如果map_location是可调⽤的,那么对于每个带有两个参数的序列化存储,它将被调⽤⼀次:storage和location。存储参数将是存储的初始反序列化,驻留在CPU上。每个序列化存储都有⼀个与之关联的位置标记,它标识保存它的设备,这个标记是传递给map_location的第⼆个参数。内置的位置标签是“cpu”为cpu张量
和“cuda:device_id”(例如:device_id)。“cuda:2”)表⽰cuda张⼒。map_location应该返回None或⼀个存储。如果map_location返回⼀个存储,它将被⽤作最终的反序列化对象,已经移动到正确的设备。否则,torch.load()将退回到默认⾏为,就好像没有指定
map_location⼀样。
如果map_location是⼀个torch.device对象或⼀个包含设备标签的字符串,它表⽰所有张量应该被加载的位置。
2.使⽤⽅式电竞是什么
电脑怎么设置开机密码torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py'>, **pickle_load_args)
输⼊参数:
f :⼀个类⽂件的对象(必须实现read(),:meth ' readline ',:meth ' tell '和:meth ' seek '),或者⼀个字符串或os。包含⽂件名的类路径对象
map_location : -指定如何重新映射存储位置的函数、torch.device、字符串或dict
pickle_module :—⽤于解pickle元数据和对象的模块(必须匹配⽤于序列化⽂件的pickle_module)【没⽤过】
pickle_load_args : -(仅适⽤于Python 3)传递给pickle_module.load()和pickle_module. unpickpickler()的可选关键字参数,例如errors=…【没⽤过】
输出:
2.例⼦大鹏背景
⼀般情况下,加载模型,主要⽤于预测新来的⼀组样本。预测的主要流程包括:输⼊数据——预处理——加载模型——预测得返回值(类别或者是属于某⼀类别的概率)
def predict(test_data, model_path, config):
‘’‘
input:
test_data:测试数据
model_path:模型的保存路径 model_path = './save/20201104_204451.ckpt'
output:
score:模型输出属于某⼀类别的概率
’‘’
data = process_data_for_predict(test_data)#预处理数据,使得数据格式符合模型输⼊形式
model = torch.load(model_path)#加载模型
score = model(data)#模型预测
return score #返回得分
官⽅的例⼦较为全⾯,并没有全部懂这些例⼦的意思,让“使⽤”成为理解的⽼师吧:
>>> torch.load('tensors.pt')
# Load all tensors onto the CPU
>>> torch.load('tensors.pt', map_location=torch.device('cpu'))
# Load all tensors onto the CPU, using a function
>>> torch.load('tensors.pt', map_location=lambda storage, loc: storage)
# Load all tensors onto GPU 1
>>> torch.load('tensors.pt', map_location=lambda storage, loc: storage.cuda(1)) # Map tensors from GPU 1 to GPU 0
>>> torch.load('tensors.pt', map_location={'cuda:1':'cuda:0'})
# Load tensor from io.BytesIO object
>>> with open('tensor.pt', 'rb') as f:汽车年审需要什么资料
buffer = io.ad())
诗的起源>>> torch.load(buffer)
# Load a module with 'ascii' encoding for unpickling
>>> torch.load('module.pt', encoding='ascii')
参考:
发布评论