0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計算機視覺在工業(yè)領(lǐng)域的一個實踐

新機器視覺 ? 來源:AI公園 ? 作者:Soham Malakar ? 2020-08-28 11:40 ? 次閱讀

導(dǎo)讀計算機視覺工業(yè)領(lǐng)域的一個實踐,有方案和代碼的分享。

1. 介紹

焊接缺陷可以定義為焊縫表面出現(xiàn)的不規(guī)則、不連續(xù)性、缺陷或不一致性。焊接接頭的缺陷可能導(dǎo)致零件和組件的報廢、昂貴的維修費用、工作條件下性能的顯著降低,在極端情況下,還可能導(dǎo)致導(dǎo)致財產(chǎn)和生命損失的災(zāi)難性故障。 此外,由于焊接工藝本身的缺陷和金屬本身的特性,在焊接過程中總會存在一定的缺陷。評估焊接質(zhì)量是很重要的,因為由于固有的冶金幾何缺陷、機械性能的不均一性和殘余應(yīng)力的存在,焊接接頭經(jīng)常是裂紋萌生的位置。 在實踐中,幾乎不可能得到完美的焊接,而且在大多數(shù)情況下,也沒有必要提供所需的足夠的服務(wù)功能。然而,及早發(fā)現(xiàn)和隔離總是比發(fā)生事故更可取。 利用我們的算法,我們可以很容易地檢測出焊接故障的圖像,并準確地衡量每一個故障的嚴重程度。這將進一步幫助更快的圖像識別和避免不良情況的出現(xiàn)。 結(jié)果表明,采用卷積神經(jīng)網(wǎng)絡(luò)算法和U-Net結(jié)構(gòu),可以大大提高處理效率。結(jié)果在工作結(jié)束時,準確率達到98.3%。

2. 預(yù)備知識

機器學(xué)習(xí)有基本了解

卷積神經(jīng)網(wǎng)絡(luò)的基本思想

理解卷積,最大池化和上采樣操作

了解U-Net的架構(gòu)理念

對殘差塊中skip連接有基本了解(可選)

使用Python、TensorFlow和Keras庫操作ConvNets的知識(可選)

3. 圖像分割

分割是將圖像分割成不同的區(qū)域,這些區(qū)域包含具有相似屬性的像素。為了對圖像分析和解釋有意義和有用,區(qū)域應(yīng)該與描繪的物體或感興趣的特征有強烈的關(guān)聯(lián)。 圖像分析的成功與否取決于分割的可靠性,但圖像的精確分割通常是一個非常具有挑戰(zhàn)性的問題。

分割后的胸部x光片,心臟(紅色)、肺(綠色)和鎖骨(藍色)

4. 圖像矩

圖像矩是圖像像素強度的某一特定加權(quán)平均值。圖像矩用于描述分割后的目標。 通*圖像矩發(fā)現(xiàn)的圖像的簡單屬性包括:

面積(或總強度)

重心

關(guān)于方向的信息

5. 理解數(shù)據(jù)

dataset包含兩個目錄。原始圖像存儲在‘images’目錄中,分割后的圖像存儲在‘labels’目錄中。 讓我們將數(shù)據(jù)可視化:

來自‘image’的原始圖像

來自‘labels’的二值圖像 這些來自“l(fā)abels”目錄的圖像是二進制圖像或ground truth標簽。這是我們的模型必須對給定的原始圖像做出的預(yù)測。在二進制圖像中,像素要么有一個“high”值,要么有一個“l(fā)ow”值。白色區(qū)域或“high”值表示缺陷區(qū)域,黑色區(qū)域或“l(fā)ow”值表示沒有缺陷。

6. 使用的方法

我們在這個問題上使用的架構(gòu)是U-Net。我們將通過三個步驟來檢測故障并測量這些焊接圖像的嚴重程度:

圖像分割

使用顏色表示嚴重程度

使用圖像矩度量嚴重程度

訓(xùn)練模型

下面是我們用于模型的U-Net架構(gòu):

使用的U-Net結(jié)構(gòu)要注意的點:

每個藍框?qū)?yīng)一個多通道特征圖

通道的數(shù)量在盒子的頂部表示

(x,y)維度顯示在盒子的左下邊緣

箭頭表示不同的操作

層的名稱在層的下面

C1 C2…C7是卷積操作后的輸出層

P1, P2, P3是最大池化操作的輸出層

U1, U2, U3是上采樣操作的輸出層

A1, A2, A3是跳躍連接

左側(cè)是收縮路徑,應(yīng)用常規(guī)卷積和最大池操作

圖像的尺寸逐漸減小,而深度逐漸增加

右邊是展開路徑,在這里應(yīng)用(上采樣)轉(zhuǎn)置卷積和常規(guī)卷積操作

在擴展路徑中,圖像的尺寸逐漸增大,深度逐漸減小

為了得到更精確的位置,在擴展路徑的每一步中,我們使用跳躍連接,將轉(zhuǎn)置卷積層的輸出與來自編碼器的相同級別的特征圖連接在一起:A1 = U1 + C3A2 = U2 + C2A3 = U3 + C1 在每次連接之后,我們再次應(yīng)用常規(guī)卷積,以便模型能夠?qū)W習(xí)組裝出更精確的輸出。

importnumpyasnp importcv2 importos importrandom importtensorflowastf h,w=512,512 defcreate_model(): inputs=tf.keras.layers.Input(shape=(h,w,3)) conv1=tf.keras.layers.Conv2D(16,(3,3),activation='relu',padding='same')(inputs) pool1=tf.keras.layers.MaxPool2D()(conv1) conv2=tf.keras.layers.Conv2D(32,(3,3),activation='relu',padding='same')(pool1) pool2=tf.keras.layers.MaxPool2D()(conv2) conv3=tf.keras.layers.Conv2D(64,(3,3),activation='relu',padding='same')(pool2) pool3=tf.keras.layers.MaxPool2D()(conv3) conv4=tf.keras.layers.Conv2D(64,(3,3),activation='relu',padding='same')(pool3) upsm5=tf.keras.layers.UpSampling2D()(conv4) upad5=tf.keras.layers.Add()([conv3,upsm5]) conv5=tf.keras.layers.Conv2D(32,(3,3),activation='relu',padding='same')(upad5) upsm6=tf.keras.layers.UpSampling2D()(conv5) upad6=tf.keras.layers.Add()([conv2,upsm6]) conv6=tf.keras.layers.Conv2D(16,(3,3),activation='relu',padding='same')(upad6) upsm7=tf.keras.layers.UpSampling2D()(conv6) upad7=tf.keras.layers.Add()([conv1,upsm7]) conv7=tf.keras.layers.Conv2D(1,(3,3),activation='relu',padding='same')(upad7) model=tf.keras.models.Model(inputs=inputs,outputs=conv7) returnmodel images=[] labels=[] files=os.listdir('./dataset/images/') random.shuffle(files) forfinfiles: img=cv2.imread('./dataset/images/'+f) parts=f.split('_') label_name='./dataset/labels/'+'W0002_'+parts[1] label=cv2.imread(label_name,2) img=cv2.resize(img,(w,h)) label=cv2.resize(label,(w,h)) images.append(img) labels.append(label) images=np.array(images) labels=np.array(labels) labels=np.reshape(labels, (labels.shape[0],labels.shape[1],labels.shape[2],1)) print(images.shape) print(labels.shape) images=images/255 labels=labels/255 model=tf.keras.models.load_model('my_model') #model=create_model()#uncommentthistocreateanewmodel print(model.summary()) model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy']) model.fit(images,labels,epochs=100,batch_size=10) model.evaluate(images,labels) model.save('my_model') 模型采用Adam優(yōu)化器進行編譯,由于只有缺陷和無缺陷兩類,我們使用二元交叉熵損失函數(shù)。 我們使用批大小為10的100 epoch(模型在所有輸入上運行的次數(shù))。 請注意,調(diào)整這些超參數(shù)有很大的進一步提高模型性能的空間。

測試模型

由于模型的輸入尺寸為512x512x3,我們將輸入尺寸調(diào)整為這個尺寸。接下來,我們將圖像歸一化,將其除以255,這樣計算速度更快。 該圖像被輸入到模型中,用于預(yù)測二進制輸出。為了放大像素的強度,二進制輸出被乘以1000。 然后將圖像轉(zhuǎn)換為16位整數(shù),便于圖像操作。然后用算法檢測缺陷,通過顏色分級和根據(jù)缺陷的嚴重程度給有缺陷的像素分配權(quán)重,直觀地標記出缺陷的嚴重程度。然后在此圖像上考慮加權(quán)像素計算圖像矩。 最后將圖像轉(zhuǎn)換回8位整數(shù),并顯示輸出圖像的顏色等級和嚴重性值。

importnumpyasnp importcv2 fromgoogle.colab.patchesimportcv2_imshow importos importrandom importtensorflowastf h,w=512,512 num_cases=10 images=[] labels=[] files=os.listdir('./dataset/images/') random.shuffle(files) model=tf.keras.models.load_model('my_model') lowSevere=1 midSevere=2 highSevere=4 forfinfiles[0:num_cases]: test_img=cv2.imread('./dataset/images/'+f) resized_img=cv2.resize(test_img,(w,h)) resized_img=resized_img/255 cropped_img=np.reshape(resized_img, (1,resized_img.shape[0],resized_img.shape[1],resized_img.shape[2])) test_out=model.predict(cropped_img) test_out=test_out[0,:,:,0]*1000 test_out=np.clip(test_out,0,255) resized_test_out=cv2.resize(test_out,(test_img.shape[1],test_img.shape[0])) resized_test_out=resized_test_out.astype(np.uint16) test_img=test_img.astype(np.uint16) grey=cv2.cvtColor(test_img,cv2.COLOR_BGR2GRAY) foriinrange(test_img.shape[0]): forjinrange(test_img.shape[1]): if(grey[i,j]>150&resized_test_out[i,j]>40): test_img[i,j,1]=test_img[i,j,1]+resized_test_out[i,j] resized_test_out[i,j]=lowSevere elif(grey[i,j]<100?&?resized_test_out[i,j]>40): test_img[i,j,2]=test_img[i,j,2]+resized_test_out[i,j] resized_test_out[i,j]=highSevere elif(resized_test_out[i,j]>40): test_img[i,j,0]=test_img[i,j,0]+resized_test_out[i,j] resized_test_out[i,j]=midSevere else: resized_test_out[i,j]=0 M=cv2.moments(resized_test_out) maxMomentArea=resized_test_out.shape[1]*resized_test_out.shape[0]*highSevere print("0thMoment=",(M["m00"]*100/maxMomentArea),"%") test_img=np.clip(test_img,0,255) test_img=test_img.astype(np.uint8) cv2_imshow(test_img) cv2.waitKey(0)

7. 結(jié)果

我們用于檢測嚴重程度的視覺度量是顏色。 在圖像中,顏色:

綠色表示有嚴重缺陷的區(qū)域。

藍色代表缺陷較嚴重的區(qū)域。

紅色區(qū)域表示最嚴重的缺陷。

0階矩作為一個百分比顯示在輸出圖像上作為一個經(jīng)驗的嚴重程度度量。 下面是三個隨機樣本,分別顯示了我們模型生成的原始輸入、ground truth和輸出。

樣本1:

原始圖像

二值圖像(Ground Truth)

帶有嚴重程度的預(yù)測輸出

樣本2:

原始圖像

二值圖像(Ground Truth)

帶有嚴重程度的預(yù)測輸出

樣本3:

原始圖像

二值圖像(Ground Truth)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4777

    瀏覽量

    100956
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4809

    瀏覽量

    68816
  • 計算機視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1699

    瀏覽量

    46051

原文標題:鋼鐵平面焊接缺陷檢測,有方案、有代碼

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    計算機視覺有哪些優(yōu)缺點

    計算機視覺作為人工智能領(lǐng)域重要分支,旨在使計算機能夠像人類
    的頭像 發(fā)表于 08-14 09:49 ?1062次閱讀

    機器視覺計算機視覺有什么區(qū)別

    機器視覺計算機視覺是兩密切相關(guān)但又有所區(qū)別的概念。 、定義 機器視覺 機器
    的頭像 發(fā)表于 07-16 10:23 ?573次閱讀

    計算機視覺的工作原理和應(yīng)用

    計算機視覺(Computer Vision,簡稱CV)是門跨學(xué)科的研究領(lǐng)域,它利用計算機和數(shù)學(xué)算法來模擬人類
    的頭像 發(fā)表于 07-10 18:24 ?2168次閱讀

    計算機視覺與人工智能的關(guān)系是什么

    引言 計算機視覺門研究如何使計算機能夠理解和解釋視覺信息的學(xué)科。它涉及到圖像處理、模式識別、機器學(xué)習(xí)等多個
    的頭像 發(fā)表于 07-09 09:25 ?708次閱讀

    計算機視覺與智能感知是干嘛的

    感知(Intelligent Perception)則是計算機視覺分支,它強調(diào)計算機處理
    的頭像 發(fā)表于 07-09 09:23 ?997次閱讀

    計算機視覺和機器視覺區(qū)別在哪

    ,旨在實現(xiàn)對圖像和視頻的自動分析和理解。 機器視覺 機器視覺計算機視覺分支,主要應(yīng)用于
    的頭像 發(fā)表于 07-09 09:22 ?486次閱讀

    計算機視覺人工智能領(lǐng)域有哪些主要應(yīng)用?

    計算機視覺是人工智能領(lǐng)域重要分支,它主要研究如何讓計算機能夠像人類
    的頭像 發(fā)表于 07-09 09:14 ?1525次閱讀

    計算機視覺屬于人工智能嗎

    屬于,計算機視覺是人工智能領(lǐng)域重要分支。 引言 計算機
    的頭像 發(fā)表于 07-09 09:11 ?1362次閱讀

    深度學(xué)習(xí)計算機視覺領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之,已經(jīng)計算機視覺領(lǐng)域取得了顯著的成果。計算機
    的頭像 發(fā)表于 07-01 11:38 ?883次閱讀

    工業(yè)控制計算機的特點 工業(yè)控制計算機的應(yīng)用領(lǐng)域

    工業(yè)控制計算機種專門為工業(yè)自動化和控制系統(tǒng)設(shè)計的計算機。它具有高度的可靠性、穩(wěn)定性和實時性,能夠滿足
    的頭像 發(fā)表于 06-16 11:30 ?1530次閱讀

    機器視覺計算機視覺的區(qū)別

    人工智能和自動化技術(shù)的快速發(fā)展中,機器視覺(Machine Vision, MV)和計算機視覺(Computer Vision, CV)作為兩
    的頭像 發(fā)表于 06-06 17:24 ?1378次閱讀

    計算機視覺的主要研究方向

    計算機視覺(Computer Vision, CV)作為人工智能領(lǐng)域重要分支,致力于使計算機
    的頭像 發(fā)表于 06-06 17:17 ?1037次閱讀

    工業(yè)計算機與普通計算機的區(qū)別

    信息化和自動化日益發(fā)展的今天,計算機已經(jīng)成為了我們?nèi)粘I詈凸ぷ髦胁豢苫蛉钡墓ぞ?。然而?b class='flag-5'>在計算機領(lǐng)域中,
    的頭像 發(fā)表于 06-06 16:45 ?1512次閱讀

    計算機視覺的十大算法

    隨著科技的不斷發(fā)展,計算機視覺領(lǐng)域也取得了長足的進步。本文將介紹計算機視覺領(lǐng)域的十大算法,包括它
    的頭像 發(fā)表于 02-19 13:26 ?1289次閱讀
    <b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的十大算法

    機器視覺、工業(yè)視覺計算機視覺這三者的關(guān)系

    機器視覺工業(yè)視覺計算機視覺這三者的關(guān)系
    的頭像 發(fā)表于 01-24 10:51 ?1367次閱讀
    機器<b class='flag-5'>視覺</b>、<b class='flag-5'>工業(yè)</b><b class='flag-5'>視覺</b>和<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>這三者的關(guān)系