很多網站登錄都需要輸入驗證碼,如果要實現自動登錄就不可避免的要識別驗證碼。本文以一個真實網站的驗證碼為例,實現了基于一下KNN的驗證碼識別。
準備工作
這里我們使用opencv做圖像處理,所以需要安裝下面兩個庫
pip3 install opencv-pythonpip3 install numpy
識別原理
我們采取一種有監(jiān)督式學習的方法來識別驗證碼,包含以下幾個步驟
圖片處理 - 對圖片進行降噪、二值化處理
切割圖片 - 將圖片切割成單個字符并保存
人工標注 - 對切割的字符圖片進行人工標注,作為訓練集
訓練數據 - 用KNN算法訓練數據
檢測結果 - 用上一步的訓練結果識別新的驗證碼
下面我們來逐一介紹一下每一步的過程,并給出具體的代碼實現。
圖片處理
先來看一下我們要識別的驗證碼是長什么樣的
可以看到,字符做了一些扭曲變換。仔細觀察,還可以發(fā)現圖片中間的部分添加了一些顆?;脑肼?。
我們先讀入圖片,并將圖片轉成灰度圖,代碼如下
import cv2im = cv2.imread(filepath)im_gray = cv2.cvtColor(im, cv2.COLOR_BGR2GRAY)
經過上面的處理,我們的彩色圖片變成了下面這樣
將圖片做二值化處理,代碼如下
ret, im_inv = cv2.threshold(im_gray,127,255,cv2.THRESH_BINARY_INV)
127是我們設定的閾值,像素值大于127被置成了0,小于127的被置成了255。處理后的圖片變成了這樣
接下來,我們應用高斯模糊對圖片進行降噪。高斯模糊的本質是用高斯核和圖像做卷積,代碼如下
kernel = 1/16*np.array([[1,2,1], [2,4,2], [1,2,1]])im_blur = cv2.filter2D(im_inv,-1,kernel)
降噪后的圖片如下
可以看到一些顆?;脑肼暠黄交袅恕?/p>
降噪后,我們對圖片再做一輪二值化處理
ret, im_res = cv2.threshold(im_blur,127,255,cv2.THRESH_BINARY)
現在圖片變成了這樣
好了,接下來,我們要開始切割圖片了。
切割圖片
這一步是所有步驟里最復雜的一步。我們的目標是把最開始的圖片切割成單個字符,并把每個字符保存成如下的灰度圖
im2, contours, hierarchy = cv2.findContours(im_res, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
我們把提取的輪廓用矩形框起來,畫出來是這樣的
可以看到,每個字符都被檢測出來了。
但這只是理想情況,很多時候,相鄰字符有粘連的會被識別成同一個字符,比如像下面的情況
要處理這種情況,我們就要對上面的圖片做進一步的分割。字符粘連會有下面幾種情況,我們逐一來看下該怎么處理。
4個字符被識別成3個字符
這種情況,對粘連的字符輪廓,從中間進行分割,代碼如下
result = []for contour in contours: x, y, w, h = cv2.boundingRect(contour) if w == w_max: # w_max是所有contonur的寬度中最寬的值 box_left = np.int0([[x,y], [x+w/2,y], [x+w/2,y+h], [x,y+h]]) box_right = np.int0([[x+w/2,y], [x+w,y], [x+w,y+h], [x+w/2,y+h]]) result.append(box_left) result.append(box_right) else: box = np.int0([[x,y], [x+w,y], [x+w,y+h], [x,y+h]]) result.append(box)
分割后,圖片變成了這樣
4個字符被識別成2個字符
4個字符被識別成2個字符有下面兩種情況
對第一種情況,對于左右兩個輪廓,從中間分割即可。對第二種情況,將包含了3個字符的輪廓在水平方向上三等分。具體代碼如下
result = []for contour in contours: x, y, w, h = cv2.boundingRect(contour) if w == w_max and w_max >= w_min * 2: # 如果兩個輪廓一個是另一個的寬度的2倍以上,我們認為這個輪廓就是包含3個字符的輪廓 box_left = np.int0([[x,y], [x+w/3,y], [x+w/3,y+h], [x,y+h]]) box_mid = np.int0([[x+w/3,y], [x+w*2/3,y], [x+w*2/3,y+h], [x+w/3,y+h]]) box_right = np.int0([[x+w*2/3,y], [x+w,y], [x+w,y+h], [x+w*2/3,y+h]]) result.append(box_left) result.append(box_mid) result.append(box_right) elif w_max < w_min * 2: ? ? ? ?# 如果兩個輪廓,較寬的寬度小于較窄的2倍,我們認為這是兩個包含2個字符的輪廓 ? ? ? ?box_left = np.int0([[x,y], [x+w/2,y], [x+w/2,y+h], [x,y+h]]) ? ? ? ?box_right = np.int0([[x+w/2,y], [x+w,y], [x+w,y+h], [x+w/2,y+h]]) ? ? ? ?result.append(box_left) ? ? ? ?result.append(box_right) ? ?else: ? ? ? ?box = np.int0([[x,y], [x+w,y], [x+w,y+h], [x,y+h]]) ? ? ? ?result.append(box)
分割后的圖片如下
4個字符被識別成1個字符
這種情況對輪廓在水平方向上做4等分即可,代碼如下
result = []contour = contours[0]x, y, w, h = cv2.boundingRect(contour)box0 = np.int0([[x,y], [x+w/4,y], [x+w/4,y+h], [x,y+h]])box1 = np.int0([[x+w/4,y], [x+w*2/4,y], [x+w*2/4,y+h], [x+w/4,y+h]])box2 = np.int0([[x+w*2/4,y], [x+w*3/4,y], [x+w*3/4,y+h], [x+w*2/4,y+h]])box3 = np.int0([[x+w*3/4,y], [x+w,y], [x+w,y+h], [x+w*3/4,y+h]])result.extend([box0, box1, box2, box3])
分割后的圖片如下
對圖片分割完成后,我們將分割后的單個字符的圖片存成不同的圖片文件,以便下一步做人工標注。存取字符圖片的代碼如下
for box in result: cv2.drawContours(im, [box], 0, (0,0,255),2) roi = im_res[box[0][1]:box[3][1], box[0][0]:box[1][0]] roistd = cv2.resize(roi, (30, 30)) # 將字符圖片統(tǒng)一調整為30x30的圖片大小 timestamp = int(time.time() * 1e6) # 為防止文件重名,使用時間戳命名文件名 filename = "{}.jpg".format(timestamp) filepath = os.path.join("char", filename) cv2.imwrite(filepath, roistd)
字符圖片保存在名為char的目錄下面,這個目錄里的文件大致是長這樣的(文件名用時間戳命名,確保不會重名)
接下來,我們開始標注數據。
人工標注
這一步是所有步驟里最耗費體力的一步了。為節(jié)省時間,我們在程序里依次打開char目錄中的每張圖片,鍵盤輸入字符名,程序讀取鍵盤輸入并將字符名保存在文件名里。代碼如下
files = os.listdir("char")for filename in files: filename_ts = filename.split(".")[0] patt = "label/{}_*".format(filename_ts) saved_num = len(glob.glob(patt)) if saved_num == 1: print("{} done".format(patt)) continue filepath = os.path.join("char", filename) im = cv2.imread(filepath) cv2.imshow("image", im) key = cv2.waitKey(0) if key == 27: sys.exit() if key == 13: continue char = chr(key) filename_ts = filename.split(".")[0] outfile = "{}_{}.jpg".format(filename_ts, char) outpath = os.path.join("label", outfile) cv2.imwrite(outpath, im)
這里一共標注了大概800張字符圖片,標注的結果存在名為label的目錄下,目錄下的文件是這樣的(文件名由原文件名+標注名組成)
接下來,我們開始訓練數據。
訓練數據
首先,我們從label目錄中加載已標注的數據
filenames = os.listdir("label")samples = np.empty((0, 900))labels = []for filename in filenames: filepath = os.path.join("label", filename) label = filename.split(".")[0].split("_")[-1] labels.append(label) im = cv2.imread(filepath, cv2.IMREAD_GRAYSCALE) sample = im.reshape((1, 900)).astype(np.float32) samples = np.append(samples, sample, 0)samples = samples.astype(np.float32)unique_labels = list(set(labels))unique_ids = list(range(len(unique_labels)))label_id_map = dict(zip(unique_labels, unique_ids))id_label_map = dict(zip(unique_ids, unique_labels))label_ids = list(map(lambda x: label_id_map[x], labels))label_ids = np.array(label_ids).reshape((-1, 1)).astype(np.float32)
接下來,訓練我們的模型
model = cv2.ml.KNearest_create()model.train(samples, cv2.ml.ROW_SAMPLE, label_ids)
訓練完,我們用這個模型來識別一下新的驗證碼。
檢測結果
下面是我們要識別的驗證碼
對于每一個要識別的驗證碼,我們都需要對圖片做降噪、二值化、分割的處理(代碼和上面的一樣,這里不再重復)。假設處理后的圖片存在變量im_res中,分割后的字符的輪廓信息存在變量boxes中,識別驗證碼的代碼如下
for box in boxes: roi = im_res[box[0][1]:box[3][1], box[0][0]:box[1][0]] roistd = cv2.resize(roi, (30, 30)) sample = roistd.reshape((1, 900)).astype(np.float32) ret, results, neighbours, distances = model.findNearest(sample, k = 3) label_id = int(results[0,0]) label = id_label_map[label_id] print(label)
運行上面的代碼,可以看到程序輸出
yy4e
圖片中的驗證碼被成功地識別出來。
我們測試了下識別的準確率,取100張驗證碼圖片(存在test目錄下)進行識別,識別的準確率約為82%??吹接腥苏f用神經網絡識別驗證碼,準確率可以達到90%以上,下次有機會可以嘗試一下。
-
圖像處理
+關注
關注
27文章
1275瀏覽量
56576 -
驗證碼
+關注
關注
2文章
20瀏覽量
4685
原文標題:太囂張了!他竟用 Python 繞過了“驗證碼”
文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論