特徴点のマッチングとホモグラフィによる物体検出¶
目的¶
- このチュートリアルでは
- 特徴点のマッチングとcalib3dモジュールのfindHomographyを組み合わせて,複雑な画像中から既知の物体を検出する方法を学ぶ.
基礎¶
前のチュートリアルでは、クエリ画像上の特徴点を検出し,別の画像上でその対応点を検出した.簡単に言えば,ある物体の部分領域に相当するものを別な1枚の画像で見つけることをしていた.ここで用いられた情報は、学習画像で物体の厳密な位置を見つけるのに十分な情報であった.
これには,calib3dモジュールの cv2.findHomography() という関数が使える.この関数は2つの画像から得られた点の集合を与えると,その物体の射影変換を計算する。次に cv2.perspectiveTransform() を使い、その物体を検出する.射影変換の計算には最低でも4組の対応点が必要となる.
マッチングの際に,結果に影響を及ぼす可能性がある潜在的なエラーが起こることを学んできた.この問題を解決するために,RANSACもしくはLEAST_MEDIANと呼ばれるアルゴリズムを(フラグによって指定して)使う.正しい推定結果を導く良いマッチングはinliersと呼ばれ,それ以外のマッチングはoutliers(外れ値)と呼ばれる. cv2.findHomography() はinlierとoutlierの対応点を特定できるマスクを返す.
それでは試してみよう!!!
コード¶
まず初めに,いつもどおり,画像中のSIFT特徴量を計算し,ベストなマッチングを見つけるために割合試験を行う(注意: テストした環境ではflann.knnMatchがエラーを起こす).
import numpy as np
import cv2
from matplotlib import pyplot as plt
MIN_MATCH_COUNT = 10
img1 = cv2.imread('box.png',0) # queryImage
img2 = cv2.imread('box_in_scene.png',0) # trainImage
# Initiate SIFT detector
sift = cv2.xfeatures2d.SIFT_create()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks = 50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
matches = flann.knnMatch(des1,des2,k=2)
# store all the good matches as per Lowe's ratio test.
good = []
for m,n in matches:
if m.distance < 0.7*n.distance:
good.append(m)
物体を検出するために最低でも10個の対応点対がなければいけないという条件を,MIN_MATCH_COUNTによって設定する.そしてこれが満たされない場合は、単純に十分な対応点対が存在しないというメッセージを表示する.
十分な個数の対応点対が見つかれば、2つの画像で対応が取れた特徴点の座標を取り出す.これらの特徴点は射影変換を計算するために使われる.射影変換のための3x3の行列が分かれば、クエリ画像のコーナーを対応する学習画像上の点に変換できる.そして特徴点を描画する.
if len(good)>MIN_MATCH_COUNT:
src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)
M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0)
matchesMask = mask.ravel().tolist()
h,w = img1.shape
pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
dst = cv2.perspectiveTransform(pts,M)
img2 = cv2.polylines(img2,[np.int32(dst)],True,255,3, cv2.LINE_AA)
else:
print "Not enough matches are found - %d/%d" % (len(good),MIN_MATCH_COUNT)
matchesMask = None
最後に,もし物体が検出されればinliersを描画し,そうでなければ対応が取れた特徴点を描画する.
draw_params = dict(matchColor = (0,255,0), # draw matches in green color
singlePointColor = None,
matchesMask = matchesMask, # draw only inliers
flags = 2)
img3 = cv2.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)
plt.imshow(img3, 'gray'),plt.show()
次の結果画像を見てみよう.右側に表示されているクエリ画像中の対象物体が白い枠で囲まれていることがわかる: ( コード:SIFTの代わりにORBを使い。かつFLANNの使用を回避しBFを用いたバージョン, 箱の画像, シーン画像)
補足資料¶
OpenCV 3とPython 3で特徴量マッチング(A-KAZE, KNN)(日本語):「FLANNを利用したい場合は、C++または、OpenCV2の環境で実行する。OpenCV 3とPython 3の組み合わせで動かす場合は、現状は「総当たり法(Brute-Force)を利用」とある。参考:資料にあげられているコード