0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

張正友教授相機標定法原理與實現

新機器視覺 ? 來源:金凱博自動化 ? 作者:金凱博自動化 ? 2020-12-31 10:06 ? 次閱讀

張正友相機標定法是張正友教授1998年提出的單平面棋盤格的相機標定方法。傳統標定法的標定板是需要三維的,需要非常精確,這很難制作,而張正友教授提出的方法介于傳統標定法和自標定法之間,但克服了傳統標定法需要的高精度標定物的缺點,而僅需使用一個打印出來的棋盤格就可以。同時也相對于自標定而言,提高了精度,便于操作。因此張氏標定法被廣泛應用于計算機視覺方面。

張正友標定法的標定板

今天,我們就來講解一下張氏標定法的原理和實現,學會之后,我們就可以自己去制作一個棋盤標定板,然后拍照,標定自己手機相機的參數啦!

一、相機標定介紹

二、算法原理

1.整體流程

2.模型假設

3.模型求解

(1)內外參數求解

(2)畸變系數求解

(3)精度優(yōu)化

三、算法實現

1.main.py

2.homography.py

4.extrinsics.py

5.distortion.py

6.refine_all.py

7.結果

一、相機標定介紹

相機標定指建立相機圖像像素位置與場景點位置之間的關系,根據相機成像模型,由特征點在圖像中坐標與世界坐標的對應關系,求解相機模型的參數。相機需要標定的模型參數包括內部參數和外部參數。

針孔相機成像原理其實就是利用投影將真實的三維世界坐標轉換到二維的相機坐標上去,其模型示意圖如下圖所示:

cfa988f6-4a98-11eb-8b86-12bb97331649.png

從圖中我們可以看出,在世界坐標中的一條直線上的點在相機上只呈現出了一個點,其中發(fā)生了非常大的變化,同時也損失和很多重要的信息,這正是我們3D重建、目標檢測與識別領域的重點和難點。實際中,鏡頭并非理想的透視成像,帶有不同程度的畸變。理論上鏡頭的畸變包括徑向畸變和切向畸變,切向畸變影響較小,通常只考慮徑向畸變。

徑向畸變:徑向畸變主要由鏡頭徑向曲率產生(光線在遠離透鏡中心的地方比靠近中心的地方更加彎曲)。導致真實成像點向內或向外偏離理想成像點。其中畸變像點相對于理想像點沿徑向向外偏移,遠離中心的,稱為枕形畸變;徑向畸點相對于理想點沿徑向向中心靠攏,稱為桶狀畸變。

用數學公式來表示:

d20a7290-4a98-11eb-8b86-12bb97331649.png

其中,X為相機中的坐標;X為真實世界坐標;K為內參矩陣;RT為外參矩陣 K為內參矩陣,是相機內部參數組成的一個3*3的矩陣,其中,代表焦距;S為畸變參數為d25315c2-4a98-11eb-8b86-12bb97331649.jpg中心點坐標,a為縱橫比例參數,我們可以默認設為1,所以? ?RT為外參矩陣,R是描述照相機方向的旋轉矩陣,T是描述照相機中心位置的三維平移向量。

二、算法原理

1.整體流程

d28117d8-4a98-11eb-8b86-12bb97331649.png

2.模型假設

d30fc032-4a98-11eb-8b86-12bb97331649.png

d35df748-4a98-11eb-8b86-12bb97331649.png

d3a5b600-4a98-11eb-8b86-12bb97331649.png

d3dc5598-4a98-11eb-8b86-12bb97331649.png

3.模型求解

(1)內外參數求解

我們令d4ca5f18-4a98-11eb-8b86-12bb97331649.png,則d4f53f80-4a98-11eb-8b86-12bb97331649.png

其中,H為一個3*3的矩陣,并且有一個元素作為齊次坐標。因此,H有8個自由度。

現在有8個自由度需要求解,所以需要四個對應點。也就是四個點就可以求出圖像平面到世界平面的單應性矩陣H。

我想,張氏標定法選用的棋盤格作為標定板的原因除了角點方便檢測的另外一個原因可能就是這個吧。

通過4個點,我們就可以可以獲得單應性矩陣H。但是,H是內參陣和外參陣的合體。我們想要最終分別獲得內參和外參。所以需要想個辦法,先把內參求出來。然后外參也就隨之解出了。觀察一下這個式子:

d4f53f80-4a98-11eb-8b86-12bb97331649.png

我們可以知道以下約束條件:

①,R1R2 正交,也就是說 R1 R2=0。其實這個不難理解,因為 R1 R2 是分別繞x軸和y軸得到的,而x軸和y軸均垂直z軸。

②旋轉向量的模為1,也就是說R1=R2=1,這是因為旋轉不改變尺度。

根據這兩個約束條件,經過數學變換,我們可以得到:

d54265e4-4a98-11eb-8b86-12bb97331649.png

觀察上面的兩個式子,我們可以看出,由于H1和H2是通過單應性求解出來的,所以我們要求解的參數就變成A矩陣中未知的5個參數。我們可以通過三個單應性矩陣來求解這5個參數,利用三個單應性矩陣在兩個約束下可以生成6個方程。其中,三個單應性矩陣可以通過三張對同一標定板不同角度和高度的照片獲得。

用數學公式來表達如下:

d5c0531e-4a98-11eb-8b86-12bb97331649.png

我們很容易發(fā)現B是一個對稱陣,所以B的有效元素就剩下6個,即

d5f67a84-4a98-11eb-8b86-12bb97331649.png

進一步化簡:

d647f828-4a98-11eb-8b86-12bb97331649.png

通過計算,我們可以得到

d69d2f1e-4a98-11eb-8b86-12bb97331649.png

利用上面提到的兩個約束條件,我們可以得到下面的方程組:

d6fca32c-4a98-11eb-8b86-12bb97331649.png

這個方程組的本質和前面那兩個用h和A組成的約束條件方程組是一樣的。

通過至少含一個棋盤格的三幅圖像,應用上述公式我們就可以估算出B了。得到B后,我們通過cholesky分解,就可以得到攝相機機的內參陣A的六個自由度,即:

d7571a32-4a98-11eb-8b86-12bb97331649.png

再根據d4f53f80-4a98-11eb-8b86-12bb97331649.png化簡可得外部參數,即:

d7ba260e-4a98-11eb-8b86-12bb97331649.png

(2)畸變系數求解

在文章的開始,我們就講到真實的鏡頭并非理想的透視成像,而是帶有不同程度的畸變。理論上鏡頭的畸變包括徑向畸變和切向畸變,切向畸變影響較小,通常只考慮徑向畸變,而且在徑向畸變的求解中,僅考慮了起主導的二元泰勒級數展開的前兩個系數。

具體推導,參考https://blog.csdn.net/onthewaysuccess/article/details/40736177

(3)精度優(yōu)化

在張正友標定法中,使用了兩次極大似然估計策略,第一次是在不考慮畸變的情況下求解內參和外參,第二次是求解實際的畸變系數。

極大似然參數估計,參考https://blog.csdn.net/onthewaysuccess/article/details/40717213

三、算法實現

1.main.py

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import cv2 as cv

import numpy as np

import os

from step.homography import get_homography

from step.intrinsics import get_intrinsics_param

from step.extrinsics import get_extrinsics_param

from step.distortion import get_distortion

from step.refine_all import refinall_all_param

def calibrate():

#求單應矩陣

H = get_homography(pic_points, real_points_x_y)

#求內參

intrinsics_param = get_intrinsics_param(H)

#求對應每幅圖外參

extrinsics_param = get_extrinsics_param(H, intrinsics_param)

#畸變矯正

k = get_distortion(intrinsics_param, extrinsics_param, pic_points, real_points_x_y)

#微調所有參數

[new_intrinsics_param, new_k, new_extrinsics_param] = refinall_all_param(intrinsics_param,

k, extrinsics_param, real_points, pic_points)

print("intrinsics_parm: ", new_intrinsics_param)

print("distortionk: ", new_k)

print("extrinsics_parm: ", new_extrinsics_param)

if __name__ == "__main__":

file_dir = r'..pic'

# 標定所用圖像

pic_name = os.listdir(file_dir)

# 由于棋盤為二維平面,設定世界坐標系在棋盤上,一個單位代表一個棋盤寬度,產生世界坐標系三維坐標

cross_corners = [9, 6] #棋盤方塊交界點排列

real_coor = np.zeros((cross_corners[0] * cross_corners[1], 3), np.float32)

real_coor[:, :2] = np.mgrid[0:9, 0:6].T.reshape(-1, 2)

real_points = []

real_points_x_y = []

pic_points = []

for pic in pic_name:

pic_path = os.path.join(file_dir, pic)

pic_data = cv.imread(pic_path)

# 尋找到棋盤角點

succ, pic_coor = cv.findChessboardCorners(pic_data, (cross_corners[0], cross_corners[1]), None)

if succ:

# 添加每幅圖的對應3D-2D坐標

pic_coor = pic_coor.reshape(-1, 2)

pic_points.append(pic_coor)

real_points.append(real_coor)

real_points_x_y.append(real_coor[:, :2])

calibrate()

2.homography.py

這是用于求解單應性矩陣的文件

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import numpy as np

from scipy import optimize as opt

#求輸入數據的歸一化矩陣

def normalizing_input_data(coor_data):

x_avg = np.mean(coor_data[:, 0])

y_avg = np.mean(coor_data[:, 1])

sx = np.sqrt(2) / np.std(coor_data[:, 0])

sy = np.sqrt(2) / np.std(coor_data[:, 1])

norm_matrix = np.matrix([[sx, 0, -sx * x_avg],

[0, sy, -sy * y_avg],

[0, 0, 1]])

return norm_matrix

#求取初始估計的單應矩陣

def get_initial_H(pic_coor, real_coor):

# 獲得歸一化矩陣

pic_norm_mat = normalizing_input_data(pic_coor)

real_norm_mat = normalizing_input_data(real_coor)

M = []

for i in range(len(pic_coor)):

#轉換為齊次坐標

single_pic_coor = np.array([pic_coor[i][0], pic_coor[i][1], 1])

single_real_coor = np.array([real_coor[i][0], real_coor[i][1], 1])

#坐標歸一化

pic_norm = np.dot(pic_norm_mat, single_pic_coor)

real_norm = np.dot(real_norm_mat, single_real_coor)

#構造M矩陣

M.append(np.array([-real_norm.item(0), -real_norm.item(1), -1,

0, 0, 0,

pic_norm.item(0) * real_norm.item(0), pic_norm.item(0) * real_norm.item(1), pic_norm.item(0)]))

M.append(np.array([0, 0, 0,

-real_norm.item(0), -real_norm.item(1), -1,

pic_norm.item(1) * real_norm.item(0), pic_norm.item(1) * real_norm.item(1), pic_norm.item(1)]))

#利用SVD求解M * h = 0中h的解

U, S, VT = np.linalg.svd((np.array(M, dtype='float')).reshape((-1, 9)))

# 最小的奇異值對應的奇異向量,S求出來按大小排列的,最后的最小

H = VT[-1].reshape((3, 3))

H = np.dot(np.dot(np.linalg.inv(pic_norm_mat), H), real_norm_mat)

H /= H[-1, -1]

return H

#返回估計坐標與真實坐標偏差

def value(H, pic_coor, real_coor):

Y = np.array([])

for i in range(len(real_coor)):

single_real_coor = np.array([real_coor[i, 0], real_coor[i, 1], 1])

U = np.dot(H.reshape(3, 3), single_real_coor)

U /= U[-1]

Y = np.append(Y, U[:2])

Y_NEW = (pic_coor.reshape(-1) - Y)

return Y_NEW

#返回對應jacobian矩陣

def jacobian(H, pic_coor, real_coor):

J = []

for i in range(len(real_coor)):

sx = H[0]*real_coor[i][0] + H[1]*real_coor[i][1] +H[2]

sy = H[3]*real_coor[i][0] + H[4]*real_coor[i][1] +H[5]

w = H[6]*real_coor[i][0] + H[7]*real_coor[i][1] +H[8]

w2 = w * w

J.append(np.array([real_coor[i][0]/w, real_coor[i][1]/w, 1/w,

0, 0, 0,

-sx*real_coor[i][0]/w2, -sx*real_coor[i][1]/w2, -sx/w2]))

J.append(np.array([0, 0, 0,

real_coor[i][0]/w, real_coor[i][1]/w, 1/w,

-sy*real_coor[i][0]/w2, -sy*real_coor[i][1]/w2, -sy/w2]))

return np.array(J)

#利用Levenberg Marquart算法微調H

def refine_H(pic_coor, real_coor, initial_H):

initial_H = np.array(initial_H)

final_H = opt.leastsq(value,

initial_H,

Dfun=jacobian,

args=(pic_coor, real_coor))[0]

final_H /= np.array(final_H[-1])

return final_H

#返回微調后的H

def get_homography(pic_coor, real_coor):

refined_homographies =[]

error = []

for i in range(len(pic_coor)):

initial_H = get_initial_H(pic_coor[i], real_coor[i])

final_H = refine_H(pic_coor[i], real_coor[i], initial_H)

refined_homographies.append(final_H)

return np.array(refined_homographies)

3.intrinsics.py

這是用于求解內參矩陣的文件

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import numpy as np

#返回pq位置對應的v向量

def create_v(p, q, H):

H = H.reshape(3, 3)

return np.array([

H[0, p] * H[0, q],

H[0, p] * H[1, q] + H[1, p] * H[0, q],

H[1, p] * H[1, q],

H[2, p] * H[0, q] + H[0, p] * H[2, q],

H[2, p] * H[1, q] + H[1, p] * H[2, q],

H[2, p] * H[2, q]

])

#返回相機內參矩陣A

def get_intrinsics_param(H):

#構建V矩陣

V = np.array([])

for i in range(len(H)):

V = np.append(V, np.array([create_v(0, 1, H[i]), create_v(0, 0 , H[i])- create_v(1, 1 , H[i])]))

#求解V*b = 0中的b

U, S, VT = np.linalg.svd((np.array(V, dtype='float')).reshape((-1, 6)))

#最小的奇異值對應的奇異向量,S求出來按大小排列的,最后的最小

b = VT[-1]

#求取相機內參

w = b[0] * b[2] * b[5] - b[1] * b[1] * b[5] - b[0] * b[4] * b[4] + 2 * b[1] * b[3] * b[4] - b[2] * b[3] * b[3]

d = b[0] * b[2] - b[1] * b[1]

alpha = np.sqrt(w / (d * b[0]))

beta = np.sqrt(w / d**2 * b[0])

gamma = np.sqrt(w / (d**2 * b[0])) * b[1]

uc = (b[1] * b[4] - b[2] * b[3]) / d

vc = (b[1] * b[3] - b[0] * b[4]) / d

return np.array([

[alpha, gamma, uc],

[0, beta, vc],

[0, 0, 1]

])

4.extrinsics.py

這是用于求解外參矩陣的文件

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import numpy as np

#返回每一幅圖的外參矩陣[R|t]

def get_extrinsics_param(H, intrinsics_param):

extrinsics_param = []

inv_intrinsics_param = np.linalg.inv(intrinsics_param)

for i in range(len(H)):

h0 = (H[i].reshape(3, 3))[:, 0]

h1 = (H[i].reshape(3, 3))[:, 1]

h2 = (H[i].reshape(3, 3))[:, 2]

scale_factor = 1 / np.linalg.norm(np.dot(inv_intrinsics_param, h0))

r0 = scale_factor * np.dot(inv_intrinsics_param, h0)

r1 = scale_factor * np.dot(inv_intrinsics_param, h1)

t = scale_factor * np.dot(inv_intrinsics_param, h2)

r2 = np.cross(r0, r1)

R = np.array([r0, r1, r2, t]).transpose()

extrinsics_param.append(R)

return extrinsics_param

5.distortion.py

這是用于求解畸變矯正系數的文件

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import numpy as np

#返回畸變矯正系數k0,k1

def get_distortion(intrinsic_param, extrinsic_param, pic_coor, real_coor):

D = []

d = []

for i in range(len(pic_coor)):

for j in range(len(pic_coor[i])):

#轉換為齊次坐標

single_coor = np.array([(real_coor[i])[j, 0], (real_coor[i])[j, 1], 0, 1])

#利用現有內參及外參求出估計圖像坐標

u = np.dot(np.dot(intrinsic_param, extrinsic_param[i]), single_coor)

[u_estim, v_estim] = [u[0]/u[2], u[1]/u[2]]

coor_norm = np.dot(extrinsic_param[i], single_coor)

coor_norm /= coor_norm[-1]

#r = np.linalg.norm((real_coor[i])[j])

r = np.linalg.norm(coor_norm)

D.append(np.array([(u_estim - intrinsic_param[0, 2]) * r ** 2, (u_estim - intrinsic_param[0, 2]) * r ** 4]))

D.append(np.array([(v_estim - intrinsic_param[1, 2]) * r ** 2, (v_estim - intrinsic_param[1, 2]) * r ** 4]))

#求出估計坐標與真實坐標的殘差

d.append(pic_coor[i][j, 0] - u_estim)

d.append(pic_coor[i][j, 1] - v_estim)

'''

D.append(np.array([(pic_coor[i][j, 0] - intrinsic_param[0, 2]) * r ** 2, (pic_coor[i][j, 0] - intrinsic_param[0, 2]) * r ** 4]))

D.append(np.array([(pic_coor[i][j, 1] - intrinsic_param[1, 2]) * r ** 2, (pic_coor[i][j, 1] - intrinsic_param[1, 2]) * r ** 4]))

#求出估計坐標與真實坐標的殘差

d.append(u_estim - pic_coor[i][j, 0])

d.append(v_estim - pic_coor[i][j, 1])

'''

D = np.array(D)

temp = np.dot(np.linalg.inv(np.dot(D.T, D)), D.T)

k = np.dot(temp, d)

'''

#也可利用SVD求解D * k = d中的k

U, S, Vh=np.linalg.svd(D, full_matrices=False)

temp_S = np.array([[S[0], 0],

[0, S[1]]])

temp_res = np.dot(Vh.transpose(), np.linalg.inv(temp_S))

temp_res_res = np.dot(temp_res, U.transpose())

k = np.dot(temp_res_res, d)

'''

return k

6.refine_all.py

這是用于微調參數的文件

#!usr/bin/env/ python

# _*_ coding:utf-8 _*_

import numpy as np

import math

from scipy import optimize as opt

#微調所有參數

def refinall_all_param(A, k, W, real_coor, pic_coor):

#整合參數

P_init = compose_paramter_vector(A, k, W)

#復制一份真實坐標

X_double = np.zeros((2 * len(real_coor) * len(real_coor[0]), 3))

Y = np.zeros((2 * len(real_coor) * len(real_coor[0])))

M = len(real_coor)

N = len(real_coor[0])

for i in range(M):

for j in range(N):

X_double[(i * N + j) * 2] = (real_coor[i])[j]

X_double[(i * N + j) * 2 + 1] = (real_coor[i])[j]

Y[(i * N + j) * 2] = (pic_coor[i])[j, 0]

Y[(i * N + j) * 2 + 1] = (pic_coor[i])[j, 1]

#微調所有參數

P = opt.leastsq(value,

P_init,

args=(W, real_coor, pic_coor),

Dfun=jacobian)[0]

#raial_error表示利用標定后的參數計算得到的圖像坐標與真實圖像坐標點的平均像素距離

error = value(P, W, real_coor, pic_coor)

raial_error = [np.sqrt(error[2 * i]**2 + error[2 * i + 1]**2) for i in range(len(error) // 2)]

print("total max error: ", np.max(raial_error))

#返回拆解后參數,分別為內參矩陣,畸變矯正系數,每幅圖對應外參矩陣

return decompose_paramter_vector(P)

#把所有參數整合到一個數組內

def compose_paramter_vector(A, k, W):

alpha = np.array([A[0, 0], A[1, 1], A[0, 1], A[0, 2], A[1, 2], k[0], k[1]])

P = alpha

for i in range(len(W)):

R, t = (W[i])[:, :3], (W[i])[:, 3]

#旋轉矩陣轉換為一維向量形式

zrou = to_rodrigues_vector(R)

w = np.append(zrou, t)

P = np.append(P, w)

return P

#分解參數集合,得到對應的內參,外參,畸變矯正系數

def decompose_paramter_vector(P):

[alpha, beta, gamma, uc, vc, k0, k1] = P[0:7]

A = np.array([[alpha, gamma, uc],

[0, beta, vc],

[0, 0, 1]])

k = np.array([k0, k1])

W = []

M = (len(P) - 7) // 6

for i in range(M):

m = 7 + 6 * i

zrou = P[m:m+3]

t = (P[m+3:m+6]).reshape(3, -1)

#將旋轉矩陣一維向量形式還原為矩陣形式

R = to_rotation_matrix(zrou)

#依次拼接每幅圖的外參

w = np.concatenate((R, t), axis=1)

W.append(w)

W = np.array(W)

return A, k, W

#返回從真實世界坐標映射的圖像坐標

def get_single_project_coor(A, W, k, coor):

single_coor = np.array([coor[0], coor[1], coor[2], 1])

#'''

coor_norm = np.dot(W, single_coor)

coor_norm /= coor_norm[-1]

#r = np.linalg.norm(coor)

r = np.linalg.norm(coor_norm)

uv = np.dot(np.dot(A, W), single_coor)

uv /= uv[-1]

#畸變

u0 = uv[0]

v0 = uv[1]

uc = A[0, 2]

vc = A[1, 2]

#u = (uc * r**2 * k[0] + uc * r**4 * k[1] - u0) / (r**2 * k[0] + r**4 * k[1] - 1)

#v = (vc * r**2 * k[0] + vc * r**4 * k[1] - v0) / (r**2 * k[0] + r**4 * k[1] - 1)

u = u0 + (u0 - uc) * r**2 * k[0] + (u0 - uc) * r**4 * k[1]

v = v0 + (v0 - vc) * r**2 * k[0] + (v0 - vc) * r**4 * k[1]

'''

uv = np.dot(W, single_coor)

uv /= uv[-1]

# 透鏡矯正

x0 = uv[0]

y0 = uv[1]

r = np.linalg.norm(np.array([x0, y0]))

k0 = 0

k1 = 0

x = x0 * (1 + r ** 2 * k0 + r ** 4 * k1)

y = y0 * (1 + r ** 2 * k0 + r ** 4 * k1)

#u = A[0, 0] * x + A[0, 2]

#v = A[1, 1] * y + A[1, 2]

[u, v, _] = np.dot(A, np.array([x, y, 1]))

'''

return np.array([u, v])

#返回所有點的真實世界坐標映射到的圖像坐標與真實圖像坐標的殘差

def value(P, org_W, X, Y_real):

M = (len(P) - 7) // 6

N = len(X[0])

A = np.array([

[P[0], P[2], P[3]],

[0, P[1], P[4]],

[0, 0, 1]

])

Y = np.array([])

for i in range(M):

m = 7 + 6 * i

#取出當前圖像對應的外參

w = P[m:m + 6]

# 不用旋轉矩陣的變換是因為會有精度損失

'''

R = to_rotation_matrix(w[:3])

t = w[3:].reshape(3, 1)

W = np.concatenate((R, t), axis=1)

'''

W = org_W[i]

#計算每幅圖的坐標殘差

for j in range(N):

Y = np.append(Y, get_single_project_coor(A, W, np.array([P[5], P[6]]), (X[i])[j]))

error_Y = np.array(Y_real).reshape(-1) - Y

return error_Y

#計算對應jacobian矩陣

def jacobian(P, WW, X, Y_real):

M = (len(P) - 7) // 6

N = len(X[0])

K = len(P)

A = np.array([

[P[0], P[2], P[3]],

[0, P[1], P[4]],

[0, 0, 1]

])

res = np.array([])

for i in range(M):

m = 7 + 6 * i

w = P[m:m + 6]

R = to_rotation_matrix(w[:3])

t = w[3:].reshape(3, 1)

W = np.concatenate((R, t), axis=1)

for j in range(N):

res = np.append(res, get_single_project_coor(A, W, np.array([P[5], P[6]]), (X[i])[j]))

#求得x, y方向對P[k]的偏導

J = np.zeros((K, 2 * M * N))

for k in range(K):

J[k] = np.gradient(res, P[k])

return J.T

#將旋轉矩陣分解為一個向量并返回,Rodrigues旋轉向量與矩陣的變換,最后計算坐標時并未用到,因為會有精度損失

def to_rodrigues_vector(R):

p = 0.5 * np.array([[R[2, 1] - R[1, 2]],

[R[0, 2] - R[2, 0]],

[R[1, 0] - R[0, 1]]])

c = 0.5 * (np.trace(R) - 1)

if np.linalg.norm(p) == 0:

if c == 1:

zrou = np.array([0, 0, 0])

elif c == -1:

R_plus = R + np.eye(3, dtype='float')

norm_array = np.array([np.linalg.norm(R_plus[:, 0]),

np.linalg.norm(R_plus[:, 1]),

np.linalg.norm(R_plus[:, 2])])

v = R_plus[:, np.where(norm_array == max(norm_array))]

u = v / np.linalg.norm(v)

if u[0] < 0 or (u[0] == 0 and u[1] < 0) or (u[0] == u[1] and u[0] == 0 and u[2] < 0):

u = -u

zrou = math.pi * u

else:

zrou = []

else:

u = p / np.linalg.norm(p)

theata = math.atan2(np.linalg.norm(p), c)

zrou = theata * u

return zrou

#把旋轉矩陣的一維向量形式還原為旋轉矩陣并返回

def to_rotation_matrix(zrou):

theta = np.linalg.norm(zrou)

zrou_prime = zrou / theta

W = np.array([[0, -zrou_prime[2], zrou_prime[1]],

[zrou_prime[2], 0, -zrou_prime[0]],

[-zrou_prime[1], zrou_prime[0], 0]])

R = np.eye(3, dtype='float') + W * math.sin(theta) + np.dot(W, W) * (1 - math.cos(theta))

return R

7.結果

拍攝的不同角度,不同高度的圖像

運行結果:

博主的手機是華為p9,后置攝像頭是1200萬像素。

內部參數矩陣是為:

[ 9.95397796e+02, -5.74043156e+00, 5.30659959e+02, 0.00000000e+00, 1.04963119e+03, 6.55565437e+02, 0.00000000e+00, 0.00000000e+00, 1.00000000e+00]

因為代碼是以一個方格為一個單位,沒有考慮單位長度,所以要求真實的參數應該乘一個單位長度,博主采用的方格的尺寸是2.98cm的,自己拿excel畫的,get了一個新技能~~

原文標題:張正友相機標定法原理與實現

文章出處:【微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2878

    瀏覽量

    107548
  • 相機
    +關注

    關注

    4

    文章

    1351

    瀏覽量

    53618
  • 機器視覺
    +關注

    關注

    162

    文章

    4372

    瀏覽量

    120325

原文標題:張正友相機標定法原理與實現

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    心態(tài)年輕 篤行至善 ——專訪金航標電子技術顧問武軍教授

    KinghelmSlkor武軍教授深圳市“通信電子與信息化”專家、金航標電子技術顧問“保持年輕、學習的心態(tài),持續(xù)為社會做貢獻,樂在其中”是武軍教授——深圳市“通信電子與信息化”專家
    的頭像 發(fā)表于 12-10 01:00 ?229次閱讀
    心態(tài)年輕 篤行至善  ——專訪金航標電子技術顧問<b class='flag-5'>張</b>武軍<b class='flag-5'>教授</b>

    思特分享 繪制江河湖海:uEye相機助力水路航道自動3D測繪系統

    TAPS 是德國 Fraunhofer 研究所為河道測量而設計的半自動測向系統,通過搭載兩臺思特 uEye FA 工業(yè)相機 實現對海岸區(qū)域進行高效精準的三維建模和航道地圖重建。
    的頭像 發(fā)表于 10-30 16:18 ?220次閱讀
    <b class='flag-5'>友</b>思特分享  繪制江河湖海:uEye<b class='flag-5'>相機</b>助力水路航道自動3D測繪系統

    思特分享 車載同步技術創(chuàng)新:多相機系統如何實現精準數據采集與實時處理?

    車載多相機采集系統是智能駕駛技術實際應用中的的“眼睛”,思特車載圖像采集和回放系統切實提升了系統的實時同步采集與回放能力,為ADAS等應用的決策系統提供了可靠的核心數據。
    的頭像 發(fā)表于 10-16 16:14 ?433次閱讀
    <b class='flag-5'>友</b>思特分享 車載同步技術創(chuàng)新:多<b class='flag-5'>相機</b>系統如何<b class='flag-5'>實現</b>精準數據采集與實時處理?

    基于DCC和標定相機鏡頭畸變校正

    電子發(fā)燒友網站提供《基于DCC和標定相機鏡頭畸變校正.pdf》資料免費下載
    發(fā)表于 08-29 10:37 ?0次下載
    基于DCC和<b class='flag-5'>張</b>氏<b class='flag-5'>標定</b>的<b class='flag-5'>相機</b>鏡頭畸變校正

    思特新品 多光譜與高光譜相機:基于隨心而定的可調諧濾光片技術

    高光譜成像拓展了人類的視野,讓我們能看到可見光之外的東西。思特高光譜相機與多光譜相機基于可調諧濾光片技術,具備緊湊、高分辨率、低成本的優(yōu)勢,將其應用拓展至智慧農業(yè)、工業(yè)檢測、皮膚檢測等領域。
    的頭像 發(fā)表于 08-09 17:36 ?416次閱讀
    <b class='flag-5'>友</b>思特新品 多光譜與高光譜<b class='flag-5'>相機</b>:基于隨心而定的可調諧濾光片技術

    思特分享 IDS uEye:全球首款兼具索尼 IMX662 彩色和單色傳感器的工業(yè)相機

    思特戰(zhàn)略伙伴 IDS 是第一家提供索尼 IMX 662 傳感器彩色和黑白兩種顏色的工業(yè)相機供應商,其新款 uEye+ XCP 和 XLS 相機在低照度應用中的表現尤為出色。
    的頭像 發(fā)表于 07-25 13:49 ?618次閱讀

    C#之Delta并聯機械手的視覺相機標定與形狀匹配

    本文主要介紹如何通過運動VPLC711視覺接口來實現相機標定和形狀匹配功能。
    的頭像 發(fā)表于 06-26 15:11 ?879次閱讀
    C#之Delta并聯機械手的視覺<b class='flag-5'>相機</b><b class='flag-5'>標定</b>與形狀匹配

    思特應用 | 慧眼識珠:如何實現無障礙高光譜成像?

    近紅外相機可幫助人眼捕捉不同材料之間光譜特征的微小差異。思特 Monarch 微型可調近紅外相機以其小體積、低成本、高性能,3步即可快速實現各種材料的分類應用。
    的頭像 發(fā)表于 06-05 17:12 ?350次閱讀
    <b class='flag-5'>友</b>思特應用 | 慧眼識珠:如何<b class='flag-5'>實現</b>無障礙高光譜成像?

    相機標定技術的性能分析與工具比較

    相機在從遙感、測繪、機器人技術到內窺鏡等一系列應用中都是不可或缺的。這些應用通常需要了解相機中真實世界點和它們在圖像中的幾何關系。
    發(fā)表于 04-30 09:28 ?955次閱讀
    <b class='flag-5'>相機</b><b class='flag-5'>標定</b>技術的性能分析與工具比較

    思特應用 | 穩(wěn)步前行:基于FPGA 3D相機實現輪胎定位檢測應用

    乘用車輛的長期穩(wěn)定行駛離不開輪胎等零部件的定期檢測。思特 3D相機可實時采集車輛四輪的三維點云圖,提取關鍵信息并進行計算分析,實現車輛四輪定位的精確測量。
    的頭像 發(fā)表于 04-24 17:00 ?381次閱讀
    <b class='flag-5'>友</b>思特應用 | 穩(wěn)步前行:基于FPGA 3D<b class='flag-5'>相機</b><b class='flag-5'>實現</b>輪胎定位檢測應用

    康謀技術 |深入探討:自動駕駛中的相機標定技術

    算法之間,是確保傳感器數據準確性的基礎,同時也是實現傳感器融合的關鍵先決條件。在眾多傳感器中,相機以其豐富的信息獲取能力和成本效益而成為自動駕駛系統中的首選。相機
    的頭像 發(fā)表于 04-17 17:08 ?904次閱讀
    康謀技術 |深入探討:自動駕駛中的<b class='flag-5'>相機</b><b class='flag-5'>標定</b>技術

    工業(yè)相機單目和雙目的區(qū)別

    工業(yè)相機標定的方法根據工業(yè)相機的數目可分為單目標定、雙目標定Q以及多目標定。
    的頭像 發(fā)表于 03-26 16:26 ?1912次閱讀
    工業(yè)<b class='flag-5'>相機</b>單目和雙目的區(qū)別

    思特分享 | 高精度彩色3D相機:開啟嶄新的彩色3D成像時代

    的深度信息是遠遠不夠的。 顏色區(qū)分 或 機器學習 等高級圖像處理技術需要其他基本數據,為滿足這一要求,之前需要通過增加2D相機實現思特全新緊湊型 VST Ensenso C相機
    的頭像 發(fā)表于 01-11 09:57 ?423次閱讀
    <b class='flag-5'>友</b>思特分享 | 高精度彩色3D<b class='flag-5'>相機</b>:開啟嶄新的彩色3D成像時代

    思特案例 | 捕捉“五彩斑斕的黑”:鍺基短波紅外相機的多種成像應用

    思特 BeyonSense 1短波紅外相機,帶您輕松捕捉人眼可見范圍以外的"五彩斑斕的黑色",以豐富成像結果看見鍺基短波紅外相機在靈敏度與像素上的更多未來前景。
    的頭像 發(fā)表于 01-03 15:11 ?448次閱讀
    <b class='flag-5'>友</b>思特案例 | 捕捉“五彩斑斕的黑”:鍺基短波紅外<b class='flag-5'>相機</b>的多種成像應用