Torch 加速
2023-12-22 12:43:23
loss.item()
1. 费时
loss.backward()
loss_item = loss.item() # todo loss.item() 这个比较费时间 0.2743 秒
2. 省时
loss_item = loss.item()? ?#todo 把它 移到 loss.backward() 前面,这个操作只需要 0.00027 秒
loss.backward()
Index
d_inv[torch.isinf(d_inv)] = 0.0 # todo 这个超级费时间 大约 0.04秒
Top-k 替换 argsort
torch.argsort(pc1_sampling_confidence, dim=-1, descending=True)[:, :64] # 费时
torch.topk(pc1_sampling_confidence, 64, dim=-1) # 省时
申明对象
torch.arange(B, dtype=torch.long, device="cuda") # 省时
torch.arange(B, dtype=torch.long).to("cuda") # 费时
A.to("cuda") 与 A.cuda() 是一样的时间
文章来源:https://blog.csdn.net/masterShaw/article/details/135149892
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!