opencv读取图片通道以及显示
携手创作,共同成长!这是我参与「掘金日新计划 · 8 月更文挑战」的第2天,点击查看活动详情 使用cv2读取的图像的通道到是BGR通道,所以测试模型之前需要做BGR转RGB的操作。
cpp
img=cv2.imread('515.jpg')
cv2.imshow("aa",img)
cv2.waitKey(-1)
显示结果:
显示结果是正常的。如果转为RGB后?
```cpp import matplotlib.pyplot as plt import cv2
img=cv2.imread('515.jpg') img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) cv2.imshow("aa",img_rgb) cv2.waitKey(-1) ``` 然后却变成BGR了!为什么呢?难道cv2读取的通达不是BGR吗? 我再换一种方式,使用matplotlib.pyplot显示图片。 代码:
python
img=cv2.imread('515.jpg')
img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
fig, axes = plt.subplots(1, 2, figsize=(15, 15))
axes[0].imshow(img)
axes[1].imshow(img_rgb)
plt.show()
输出结果:
结论:
cv2.imread( ) 所读取的图像格式:每个像素为[B,G,R]的形式 cv2.imshow( ) 显示图像:按图像中每个像素为[B,G,R]的规则将图像显示出来 所以使用cv2.imshow( )显示图像,我看到的是正常的图片。 如果换成matplotlib显示图像? mpimg.imread( ) 所读取的图像格式:每个像素为[R,G,B]的形式 plt.imshow( ) 显示图像:按图像中每个像素为[R,G,B]的规则将图像显示出来 这时候图像就是偏蓝色的。 这也就是OpenCV读取的图片使用的时候,为啥要做BGR2RGB的转换。
在已知的图片库中,只有OpenCV读取和显示图片使用BGR通道。其他的都是RGB,why?
- YoloV5实战:手把手教物体检测——YoloV5
- 基于阿里Semantatic Human Matting算法,实现精细化人物抠图
- PPv3-OCR自定义数据从训练到部署
- 如何下载pytorch的历史版本?
- WinForm——Button总结
- WinForm——MDI窗体
- 升级 pip
- 将8位的tif图片改为png图片
- RepLKNet实战:使用RepLKNet实现对植物幼苗的分类(非官方)(二)
- 关于OpenCV imread和imdecode读取图片是BGR的证明
- opencv读取图片通道以及显示
- 万字整理联邦学习系统架构设计参考
- 编译器堆空间不足
- 【图像分类】实战——使用EfficientNetV2实现图像分类(Pytorch)
- MMDetection实战:MMDetection训练与测试
- UNet语义分割实战:使用UNet实现对人物的抠图
- MobileVIT实战:使用MobileVIT实现图像分类
- SwinIR实战:如何使用SwinIR和预训练模型实现图片的超分
- 【图像分类】手撕ResNet——复现ResNet(Pytorch)
- Deeplab实战:使用deeplabv3实现对人物的抠图