第P7周:咖啡豆识别(VGG-16复现)
>- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/rbOOmire8OocQ90QM78DRA) 中的学习记录博客**
>- **🍖 原作者:[K同学啊 | 接辅导、项目定制](https://mtyjkh.blog.csdn.net/)**
一、前期工作
import torch
import torch.nn as nn
import torchvision.transforms as transforms
import torchvision
from torchvision import transforms, datasets
import os,PIL,pathlib,warnings
warnings.filterwarnings("ignore") #忽略警告信息
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
device
2. 导入数据
import os,PIL,random,pathlib
data_dir = './7-data/'
data_dir = pathlib.Path(data_dir)
data_paths = list(data_dir.glob('*'))
classeNames = [str(path).split("\\")[1] for path in data_paths]
classeNames
# 关于transforms.Compose的更多介绍可以参考:https://blog.csdn.net/qq_38251616/article/details/124878863
train_transforms = transforms.Compose([
transforms.Resize([224, 224]), # 将输入图片resize成统一尺寸
# transforms.RandomHorizontalFlip(), # 随机水平翻转
transforms.ToTensor(), # 将PIL Image或numpy.ndarray转换为tensor,并归一化到[0,1]之间
transforms.Normalize( # 标准化处理-->转换为标准正太分布(高斯分布),使模型更容易收敛
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]) # 其中 mean=[0.485,0.456,0.406]与std=[0.229,0.224,0.225] 从数据集中随机抽样计算得到的。
])
test_transform = transforms.Compose([
transforms.Resize([224, 224]), # 将输入图片resize成统一尺寸
transforms.ToTensor(), # 将PIL Image或numpy.ndarray转换为tensor,并归一化到[0,1]之间
transforms.Normalize( # 标准化处理-->转换为标准正太分布(高斯分布),使模型更容易收敛
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]) # 其中 mean=[0.485,0.456,0.406]与std=[0.229,0.224,0.225] 从数据集中随机抽样计算得到的。
])
total_data = datasets.ImageFolder("./7-data/",transform=train_transforms)
total_data
3. 划分数据集
二、手动搭建VGG-16模型
VGG-16结构说明:
●13个卷积层(Convolutional Layer),分别用blockX_convX表示
●3个全连接层(Fully connected Layer),分别用fcX与predictions表示
●5个池化层(Pool layer),分别用blockX_pool表示
VGG-16包含了16个隐藏层(13个卷积层和3个全连接层),故称为VGG-16
这里,我制作了一个视频来展示VGG-16的传播过程
0:00/0:22
倍速
VGG-16网络动画展示
FC7
FE8
FC6
7*7*512
1*1*512
1*1*1000
1*1*512
CONV5
CONV4
14*14*512
CONV3
28*28*512
CONV2
56*56*256
112*112*128
CONVOLUTION+RELU
K同学啊制作
MAX POOLING
CONVI
百度/谷歌/微信搜索:K同学啊
224*224*64
FULLY CONNECTED+RELU
1. 搭建模型
2. 查看模型详情
三、 训练模型
1. 编写训练函数
2. 编写测试函数
测试函数和训练函数大致相同,但是由于不进行梯度下降对网络权重进行更新,所以不需要传入优化器
3. 正式训练
model.train()、model.eval()训练营往期文章中有详细的介绍。
📌如果将优化器换成 SGD 会发生什么呢?请自行探索接下来发生的诡异事件的原因。
四、 结果可视化
1. Loss与Accuracy图
?
TRAINING AND VALIDATION ACCURACY
TRAINING AND
VALIDATION LOSS
1.4
1.0
TRAINING LOSS
1.2
TEST LOSS
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
TRAINING ACCURACY
TEST ACCURACY
0.0
75
35
15
35
25
20
40
30
40
30
2. 指定图片进行预测
?
Python复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
from PIL import Image
classes = list(total_data.class_to_idx)
def predict_one_image(image_path, model, transform, classes):
test_img = Image.open(image_path).convert('RGB')
plt.imshow(test_img) # 展示预测的图片
test_img = transform(test_img)
img = test_img.to(device).unsqueeze(0)
model.eval()
output = model(img)
_,pred = torch.max(output,1)
pred_class = classes[pred]
print(f'预测结果是:{pred_class}')
Python复制代码
1
2
3
4
5
# 预测训练集中的某张照片
predict_one_image(image_path='./7-data/Dark/dark (1).png',
model=model,
transform=train_transforms,
classes=classes)
Plain Text复制代码
1
预测结果是:Dark
25
50
75
100
125
150
175
200
50
100
150
200
3. 模型评估
?
Python复制代码
1
2
best_model.eval()
epoch_test_acc, epoch_test_loss = test(test_dl, best_model, loss_fn)
Python复制代码
1
epoch_test_acc, epoch_test_loss
Plain Text复制代码
1
(0.9916666666666667, 0.035762640996836126)
Python复制代码
1
2
# 查看是否与我们记录的最高准确率一致
epoch_test_acc
Plain Text复制代码
1
0.9916666666666667
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!