NeRF 模型评价指标PSNR,MS 您所在的位置:网站首页 零件三维建模精度评价指标包括 NeRF 模型评价指标PSNR,MS

NeRF 模型评价指标PSNR,MS

2024-07-17 20:00| 来源: 网络整理| 查看: 265

PSNR: 

PSNR(Peak Signal-to-Noise Ratio,峰值信噪比)是一种常用于衡量图像或视频质量的指标。它用于比较原始图像与经过处理或压缩后的图像之间的差异。PSNR通过计算原始图像与重建图像之间的均方误差(Mean Squared Error,MSE)来量化它们之间的差异。 PSNR的计算公式如下:

其中,MAX表示像素值的最大可能取值(例如,对于8位图像,MAX为255),MSE是原始图像与重建图像之间的均方误差。

 PSNR的值越高,表示图像的质量与原始图像的相似度越高。常见的PSNR范围通常在20到50之间,数值越高表示图像质量越好。然而,PSNR作为一种图像质量评估指标也有其局限性。

它主要关注均方误差,忽略了人眼对于不同频率成分的敏感度差异以及感知失真的影响。因此,在某些情况下,PSNR可能不能准确地反映人类感知到的图像质量差异。

在实际应用中,除了PSNR,还有其他更全面和准确的图像质量评估指标,例如结构相似性指标(Structural Similarity Index,SSIM)、感知质量评估指标(Perceptual Quality Assessment,如VIF、MSSSIM)等,这些指标综合考虑了人眼感知和图像结构信息,能够提供更全面的图像质量评估。

 PSNR代码: from PIL import Image import numpy as np img1 = np.array(Image.open('original.jpg')).astype(np.float64) img2 = np.array(Image.open('compress.jpg')).astype(np.float64) def psnr(img1, img2): mse = np.mean((img1-img2)**2) if mse == 0: return float('inf') else: return 20*np.log10(255/np.sqrt(mse)) if __name__ == "__main__": print(psnr(img1, img2))

或者

from skimage.metrics import peak_signal_noise_ratio as psnr from PIL import Image import numpy as np img1 = np.array(Image.open('original.jpg')) img2 = np.array(Image.open('compress.jpg')) if __name__ == "__main__": print(psnr(img1, img2))

意义: PSNR接近 50dB ,代表压缩后的图像仅有些许非常小的误差。 PSNR大于 30dB ,人眼很难查觉压缩后和原始影像的差异。 PSNR介于 20dB 到 30dB 之间,人眼就可以察觉出图像的差异。 PSNR介于 10dB 到 20dB 之间,人眼还是可以用肉眼看出这个图像原始的结构,且直观上会判断两张图像不存在很大的差异。 PSNR低于 10dB,人类很难用肉眼去判断两个图像是否为相同,一个图像是否为另一个图像的压缩结果。

MS-SSIM: 

MS-SSIM(Multi-Scale Structural Similarity Index)是一种用于评估图像质量的指标,它是结构相似性指数(SSIM)在多个尺度上的扩展。

SSIM是一种衡量两幅图像相似性的指标,它考虑了图像的亮度、对比度和结构等方面。而MS-SSIM在SSIM的基础上引入了多个尺度,以更好地捕捉图像的细节信息。

具体而言,MS-SSIM的计算过程如下:

将原始图像和重建图像划分为不同尺度的子图像。

对每个尺度的子图像计算SSIM指数。

对每个尺度的SSIM指数进行加权平均,得到最终的MS-SSIM值。

MS-SSIM的值范围在0到1之间,数值越接近1表示重建图像与原始图像的相似度越高,图像质量越好。

相比于PSNR,MS-SSIM考虑了图像的结构信息,能够更好地反映人眼对图像质量的感知。它在评估图像质量方面具有更高的准确性和敏感性。

需要注意的是,MS-SSIM计算复杂度相对较高,因为它需要对图像进行多尺度的分解和计算。然而,由于其良好的性能,在图像压缩、图像处理等领域得到广泛应用,并且被认为是一种较为可靠的图像质量评估指标。

MS-SSIM代码实现: import cv2 import numpy as np def ms_ssim(img1, img2): # 转换为灰度图像 img1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) img2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 计算MS-SSIM weights = np.array([0.0448, 0.2856, 0.3001, 0.2363, 0.1333]) # 不同尺度的权重 levels = weights.size mssim = np.zeros(levels) mcs = np.zeros(levels) for i in range(levels): ssim_map, cs_map = ssim(img1, img2) mssim[i] = np.mean(ssim_map) mcs[i] = np.mean(cs_map) img1 = cv2.resize(img1, (img1.shape[1] // 2, img1.shape[0] // 2), interpolation=cv2.INTER_LINEAR) img2 = cv2.resize(img2, (img2.shape[1] // 2, img2.shape[0] // 2), interpolation=cv2.INTER_LINEAR) # 整体MS-SSIM计算 overall_mssim = np.prod(mcs[:-1] ** weights[:-1]) * (mssim[-1] ** weights[-1]) return overall_mssim def ssim(img1, img2, k1=0.01, k2=0.03, win_size=11, L=255): C1 = (k1 * L) ** 2 C2 = (k2 * L) ** 2 # 计算均值和方差 mu1 = cv2.GaussianBlur(img1, (win_size, win_size), 1.5) mu2 = cv2.GaussianBlur(img2, (win_size, win_size), 1.5) mu1_sq = mu1 ** 2 mu2_sq = mu2 ** 2 mu1_mu2 = mu1 * mu2 sigma1_sq = cv2.GaussianBlur(img1 * img1, (win_size, win_size), 1.5) - mu1_sq sigma2_sq = cv2.GaussianBlur(img2 * img2, (win_size, win_size), 1.5) - mu2_sq sigma12 = cv2.GaussianBlur(img1 * img2, (win_size, win_size), 1.5) - mu1_mu2 # 计算相似性度量 ssim_map = ((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)) cs_map = (2 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2) return ssim_map, cs_map # 读取图像 img1 = cv2.imread('image1.jpg') img2 = cv2.imread('image2.jpg') # 计算MS-SSIM ms_ssim_score = ms_ssim(img1, img2) print("MS-SSIM score:", ms_ssim_score)  LPIPS: 

LPIPS(Learned Perceptual Image Patch Similarity)是一种基于学习的感知图像补丁相似性指标,用于评估图像的感知质量。

LPIPS的设计灵感来自于人眼对图像的感知,它通过学习一个神经网络模型来近似人类感知的视觉相似性。该模型使用卷积神经网络(CNN)对图像的局部补丁进行特征提取,并计算补丁之间的相似性得分。

具体而言,LPIPS的计算过程如下:

使用预训练的CNN模型(通常是基于深度学习的图像分类模型)提取原始图像和重建图像的特征表示。

将提取的特征表示作为输入,通过一个距离度量函数计算图像之间的相似性得分。

相似性得分表示图像之间在感知上的差异,数值越小表示图像之间的感知差异越小,图像质量越好。

LPIPS的得分范围通常是0到1之间,数值越小表示图像的感知质量越高。

与传统的图像质量评估指标(如PSNR和SSIM)相比,LPIPS更加注重于人眼感知的因素,能够更好地捕捉到图像之间的感知差异。它在图像生成、图像编辑等任务中被广泛应用,特别适用于需要考虑感知质量的场景。

需要注意的是,LPIPS是一种基于学习的指标,它的性能受到所使用的CNN模型和训练数据的影响。因此,在使用LPIPS进行图像质量评估时,需要使用与训练模型相似的数据集和预训练模型,以保证评估结果的准确性和可靠性。

 LPIPS代码实现: import torch import torchvision.transforms as transforms from PIL import Image from models import dist_model # 加载预训练的LPIPS模型 model = dist_model.DistModel() model.initialize(model='net-lin', net='alex', use_gpu=True) # 图像预处理 preprocess = transforms.Compose([ transforms.Resize((256, 256)), transforms.ToTensor() ]) # 加载图像并进行预处理 image1 = Image.open('image1.jpg').convert('RGB') image2 = Image.open('image2.jpg').convert('RGB') image1 = preprocess(image1).unsqueeze(0) image2 = preprocess(image2).unsqueeze(0) # 将图像转换为PyTorch张量并计算LPIPS with torch.no_grad(): lpips_score = model.forward(image1, image2).item() print("LPIPS score:", lpips_score)   PSNR,MS-SSIM, LPIPS三者对比:

PSNR(Peak Signal-to-Noise Ratio):PSNR是一种常用的图像质量评估指标,用于衡量原始图像与重建图像之间的差异。它通过计算均方误差(MSE)来量化两个图像之间的差异,数值越高表示图像质量越好。

MS-SSIM(Multi-Scale Structural Similarity Index):MS-SSIM是一种结构相似性指标,它在计算图像相似性时考虑了多个尺度的信息。与传统的结构相似性指标(SSIM)相比,MS-SSIM将图像分解成多个尺度,并在每个尺度上计算结构相似性指标,最后取平均值作为最终的相似性评估。MS-SSIM相较于PSNR更能反映人眼对于图像感知的差异。

LPIPS(Learned Perceptual Image Patch Similarity):LPIPS是一种学习的感知图像补丁相似性指标,它通过训练神经网络来学习图像补丁之间的感知相似性。LPIPS考虑了人眼对于图像感知的敏感性,通过计算图像补丁之间的感知距离来评估图像质量。与传统的结构相似性指标(如SSIM)相比,LPIPS在学习感知距离时更加准确和全面。

这些指标在图像质量评估中都有广泛的应用。PSNR主要用于衡量图像的重建误差,而MS-SSIM和LPIPS更加关注人眼对图像感知的差异。在实际应用中,不同的指标可以结合使用,以综合评估图像质量。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

      专题文章
        CopyRight 2018-2019 实验室设备网 版权所有