目标:简单阈值、自适应阈值、Otsu's二值化等
函数:cv2.threshold cv2.adaptiveThreshold
解析:cv2.threshold;
当像素高于阈值时,我们给这个像素赋予一个新值(可能是白色),否则我们就给它赋予另外一个颜色(颜色是黑色)。
函数的第一个参数就是原图像,原图像这里应该是灰度图;第二个参数就是用来对像素值进行分类的阈值;第三个参数就是当像素值高于(低于)阈值时应该被赋予的新的像素值。
第三个参数就是当像素值高于(低于)阈值时应该被赋予的新的像素值。 OpenCV提供了多种不同的阈值方法,这是由第四个参数来决定的这些方法包括: • cv2.THRESH_BINARY • cv2.THRESH_BINARY_INV • cv2.THRESH_TRUNC • cv2.THRESH_TOZERO • cv2.THRESH_TOZERO_INV
这个函数有两个返回值,第一个为 retVal,我们后面会解释。第二个就是 阈值化之后的结果图像了。
代码:
import cv2 import numpy as np from matplotlib import pyplot as plt img = cv2.imread('tree.jpg', 0) #(灰度图 ) ret, thresh1 = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY) ret, thresh2 = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY_INV) ret, thresh3 = cv2.threshold(img, 127, 255, cv2.THRESH_TRUNC) ret, thresh4 = cv2.threshold(img, 127, 255, cv2.THRESH_TOZERO) ret, thresh5 = cv2.threshold(img, 127, 255, cv2.THRESH_TOZERO_INV) titles = ['Original Image', 'BINARY', 'BINARY_INV', 'TRUNC', 'TOZERO', 'TOZERO_INV'] images = [img, thresh1, thresh2, thresh3, thresh4, thresh5] for i in range(6): plt.subplot(2, 3, i + 1), plt.imshow(images[i], 'gray') plt.title(titles[i]) plt.xticks([]), plt.yticks([]) plt.show()效果展示:
注意:为了同时在一个窗口中显示多个图像,我们使用函数:plt.subplot().
前面的简单阈值也叫做全局阈值,整幅图像采用同一个数作为阈值。当一副图像的不同部分具有不同亮度时,这种情况我们需要采用自适应阈值,此时的阈值时根据图像上的每一个小区域计算与其对应的阈值,因此在同一副图像上的不同区域采用的是不同的阈值,从而使我们能在亮度不同的情况下得到更好的结果。
这种方法我们需要指定三个参数,返回值只有一个
• Adaptive Method- 指定计算阈值的方法。 – cv2.ADPTIVE_THRESH_MEAN_C:阈值取自相邻区域的平均值 – cv2.ADPTIVE_THRESH_GAUSSIAN_C:阈值取值相邻区域的加权和,权重为一个高斯窗口。 • Block Size - 邻域大小(用来计算阈值的区域大小)。
• C - 这就是是一个常数,阈值就等于的平均值或者加权平均值减去这个常数。
img = cv2.imread('tree.jpg', 0) img = cv2.medianBlur(img, 5)# 中值滤波 ret, th1 = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY) # 11 为 Block size, 2 为 C 值 th2 = cv2.adaptiveThreshold(img, 255, cv2.ADAPTIVE_THRESH_MEAN_C, cv2.THRESH_BINARY, 11, 2) th3 = cv2.adaptiveThreshold(img, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 11, 2) titles = ['Original Image', 'Global Thresholding (v = 127)', 'Adaptive Mean Thresholding', 'Adaptive Gaussian Thresholding'] images = [img, th1, th2, th3] for i in range(4): plt.subplot(2, 2, i + 1), plt.imshow(images[i], 'gray') plt.title(titles[i]) plt.xticks([]), plt.yticks([]) plt.show()效果展示:
在简单阈值中,我们提到过 retVal,当我们使用 Otsu 二值化时用到它时,它又具体指的什么呢 早使用全局阈值(简单阈值) 时,我们就是随便给了一个数来做阈值,那我们怎么知道我们选取的这个数的好坏呢,答案就是不停的尝试。 如果是一副双峰图像(指的是图像直方图中存在两个峰),我们岂不是应该在两个峰之间的峰谷选一个值作为阈值?这就是 Otsu二值化要做的。 简单来说就是对一副双峰图像自动根据其直方图计算出一个阈值,(对非双峰,结果会很不理想) 这里用到的函数还是 cv2.threshold(),但是需要多传入一个参数(flag):cv2.THRESH_OTSU 这时候要把阈值设为0 ,然后算法会找到最优阈值。这个最优阈值就是返回值 retVal. 如果不使用Otsu二值化,返回的 retVal 值与设定的阈值相等。
举个栗子:
第一种:设127为全局阈值 第二种:直接使用Otsu二值化 第三种:首先使用一个 5x5 的高斯核除去噪音,然后再使用二值化,看看噪音去除对结果的影响有多大吧
import cv2 import numpy as np from matplotlib import pyplot as plt img = cv2.imread('tree.jpg', 0) # global thresholding (第一种:全局阈值) ret1, th1 = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY) # Otsu's thresholding (第二种:二值化) ret2, th2 = cv2.threshold(img, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) # Otsu's thresholding after Gaussian filtering(第三种:降噪之后二值化) # (5,5)为高斯核的大小,0 为标准差 blur = cv2.GaussianBlur(img, (5, 5), 0) #阈值一定要设为 0! ret3, th3 = cv2.threshold(blur, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) # plot all the images and their histograms images = [img, 0, th1, img, 0, th2, blur, 0, th3] titles = ['Original Noisy Image', 'Histogram', 'Global Thresholding (v=127)', 'Original Noisy Image', 'Histogram', "Otsu's Thresholding", 'Gaussian filtered Image', 'Histogram', "Otsu's Thresholding"] # 这里使用了 pyplot 中画直方图的方法,plt.hist, 要注意的是它的参数是一维数组 # 所以这里使用了(numpy)ravel 方法,将多维数组转换成一维,也可以使用 flatten 方法 # ndarray.flat 1-D iterator over an array. # ndarray.flatten 1-D array copy of the elements of an array in row-major order. for i in range(3): plt.subplot(3, 3, i * 3 + 1), plt.imshow(images[i * 3], 'gray') plt.title(titles[i * 3]), plt.xticks([]), plt.yticks([]) plt.subplot(3, 3, i * 3 + 2), plt.hist(images[i * 3].ravel(), 256) plt.title(titles[i * 3 + 1]), plt.xticks([]), plt.yticks([]) plt.subplot(3, 3, i * 3 + 3), plt.imshow(images[i * 3 + 2], 'gray') plt.title(titles[i * 3 + 2]), plt.xticks([]), plt.yticks([]) plt.show()效果展示:
转载请注明转自:https://blog.csdn.net/Owen_goodman/article/details/107088801