0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

說話人識別和驗(yàn)證系統(tǒng)解決方案

陳敏 ? 來源:rstech_rd ? 作者:rstech_rd ? 2022-07-26 10:16 ? 次閱讀

說話人識別和驗(yàn)證系統(tǒng)的應(yīng)用與日俱增。該技術(shù)的使用有助于控制和訪問自動駕駛汽車、計(jì)算機(jī)、手機(jī)和其他設(shè)備。還建立了各種機(jī)器學(xué)習(xí)模型來保護(hù)說話人識別和驗(yàn)證系統(tǒng)。這是通過分析聲音的情緒反應(yīng)和壓力水平來檢測對個人的威脅以及觸發(fā)他們安全的機(jī)制來實(shí)現(xiàn)的。

介紹

說話者和驗(yàn)證系統(tǒng)根據(jù)一個人的聲音或講話的特性來識別說話者。人類每天都習(xí)慣于識別和響應(yīng)說話者,但通過技術(shù)進(jìn)行語音識別是復(fù)雜的,需要大量計(jì)算。由于數(shù)字信號處理和計(jì)算機(jī)系統(tǒng)的進(jìn)步,自動說話人識別系統(tǒng)的使用在過去十年中變得普遍。

說話人識別系統(tǒng)的組成部分

說話人識別系統(tǒng)包括三個部分:

說話人識別:從一組登記的說話人中查明說話人的身份。目標(biāo)是從已存儲的幾個模型中找到合適的揚(yáng)聲器。(檢查多人)

說話人驗(yàn)證:驗(yàn)證未知聲音是否屬于某個說話人。當(dāng)一個人將自己標(biāo)識為 John Doe/Jane Doe 時,說話人驗(yàn)證系統(tǒng)會將語音數(shù)據(jù)與錄制的模型進(jìn)行比較,以確定說話人的身份是否與他/她聲稱的身份相符。(檢查聲稱的身份)

說話者分類:根據(jù)語音的特殊特征(基于從語音內(nèi)容中提取的特征)將包含說話者語音的音頻流劃分為同質(zhì)段/時間幀,以對說話者進(jìn)行身份分類。

說話人驗(yàn)證系統(tǒng)的應(yīng)用

訪問控制一個人必須說出一個特定的短語來表明自己的身份,才能訪問受限場所和特權(quán)信息

交易認(rèn)證:一個人必須說出一個特定的短語來識別他/她自己,以啟動電話銀行/信用卡授權(quán)或類似的交易。

揚(yáng)聲器驗(yàn)證系統(tǒng)基礎(chǔ)知識

pYYBAGLeEjaAJgDiAAAx2mLo8qQ833.jpg

圖 1:揚(yáng)聲器驗(yàn)證基礎(chǔ)

Front-End 部分捕獲說話者的聲音,并將語音信號轉(zhuǎn)換為一組代表說話者特征的特征向量。后端部分將特征向量與說話者的存儲模型(即通用背景模型,如下所述)進(jìn)行比較,以確定它們匹配的精確程度以驗(yàn)證說話者的身份。一旦說話者的聲音與數(shù)據(jù)庫中的聲音模型匹配,他們就可以訪問。

用于記錄和創(chuàng)建“揚(yáng)聲器模型”的機(jī)制的變化增加了復(fù)雜性。由于可變的語音/語音保真度,說話人識別/驗(yàn)證變得更加復(fù)雜。例如,在銀行使用高分辨率、高保真錄音機(jī)創(chuàng)建揚(yáng)聲器模型時,語音保真度會有所不同,但基于語音的交易是使用具有嘈雜背景的手機(jī)完成的。

說話人識別/驗(yàn)證流程圖

最初創(chuàng)建了一個大型模型數(shù)據(jù)庫,其中包含許多說話者和來自這些說話者的數(shù)小時語音數(shù)據(jù)。錄音包含來自不同來源的各種高保真和低保真語音輸入。分析從大量語音數(shù)據(jù)中提取的特征并訓(xùn)練模型以創(chuàng)建通用的男性/女性模型。該模型數(shù)據(jù)庫被稱為“通用背景模型”(UBM)。

然后,創(chuàng)建想要識別/驗(yàn)證自己的說話者模型數(shù)據(jù)庫。該模型數(shù)據(jù)庫被稱為“揚(yáng)聲器模型”。該模型是從“通用背景模型”派生/創(chuàng)建的,該模型對通用男性/女性聲音進(jìn)行分類。目標(biāo)揚(yáng)聲器型號與 UBM 略有不同。這些差異被記錄并保存在“揚(yáng)聲器模型”數(shù)據(jù)庫中。

現(xiàn)在,當(dāng)這個人說:“我是 John Doe”時,這個語音片段被記錄下來并分割成 10 毫秒的幀,并通過特征提取模型,產(chǎn)生語音的一些特征/特征。

pYYBAGLeEkGAIYVdAAB9dl6J3JE265.jpg

圖 2:說話人驗(yàn)證流程圖

如果 John Doe 想要驗(yàn)證他的名字,我們將從輸入語音“I am John Doe”中提取的特征輸入到他的說話人模型(特征提?。┲校撃P痛_定特征匹配的水平并計(jì)算它是“John多伊'。

然后,對于相同的輸入聲音,“我是 John Doe”,我們將提取的特征輸入到通用背景模型中,以確定特征匹配的水平,并得出他是普通男性聲音的可能性。

決策的似然比由上述兩個似然比得出。接受/拒絕決定是基于根據(jù)呼叫者是“John Doe”的可能性和呼叫者是普通男性的可能性(基于通用背景模型)計(jì)算的某個閾值做出的。

eInfochips 為基于語音和音頻的中間件提供嵌入式系統(tǒng)和軟件開發(fā)、移植、優(yōu)化、支持和維護(hù)解決方案,其中包括:DSP 域中的編碼器、解碼器、預(yù)處理和后處理算法。還提供語音/音頻相關(guān)工具和服務(wù)的維護(hù)和開發(fā)。eInfochips 還迎合了多核平臺上自定義算法的實(shí)現(xiàn)和并行化。

作者:瑞詩凱詩·阿加什

Rhishikesh Agashe 是 eInfochips 技術(shù)團(tuán)隊(duì)的一員,他在 IT 行業(yè)擁有近 19 年的經(jīng)驗(yàn)。4 年的企業(yè)家生涯和 15 年的嵌入式領(lǐng)域經(jīng)驗(yàn),其中他的大部分經(jīng)驗(yàn)是在嵌入式媒體處理領(lǐng)域,他參與了音頻和語音算法的實(shí)施。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 識別系統(tǒng)
    +關(guān)注

    關(guān)注

    1

    文章

    138

    瀏覽量

    18814
收藏 人收藏

    評論

    相關(guān)推薦

    作為說話識別特征參量的MFCC的提取過程

    作為說話識別特征參量的MFCC的提取過程
    發(fā)表于 08-20 12:37

    DSP嵌入式說話識別系統(tǒng)設(shè)計(jì)方案

    信息安全等領(lǐng)域的應(yīng)用逐漸增大,并成為人們?nèi)粘I詈凸ぷ髦兄匾移占暗陌踩?b class='flag-5'>驗(yàn)證方式。目前,說話人身份識別在理論上和實(shí)驗(yàn)室條件下已經(jīng)達(dá)到了比較高的識別精度,并開始走向?qū)嶋H應(yīng)用階段。AT&T
    發(fā)表于 07-29 06:34

    基于DSP嵌入式說話識別系統(tǒng)該怎么設(shè)計(jì)?

    說話人身份識別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語音中反映說話人生理和行為特征的語音參數(shù)來自動識別說話人身份的技術(shù)。
    發(fā)表于 11-04 07:34

    說話識別算法研究及其在SOC上的實(shí)現(xiàn)

    說話識別算法研究及
    發(fā)表于 08-15 10:22 ?15次下載

    基于Cohort相似度的說話識別

    本文提出了一種基于Cohort 相似度度量的識別方式,訓(xùn)練集外選擇出同這個目標(biāo)說話比較近似的M 個說話計(jì)算M+1 維混合高斯,即Coho
    發(fā)表于 12-16 12:50 ?7次下載

    基于DTW的編碼域說話識別研究

    摘要! 相對解碼重建后的語音進(jìn)行說話識別從VOIP的語音流中直接提取語音特征參數(shù)進(jìn)行說話識別
    發(fā)表于 11-22 14:59 ?0次下載

    DSP嵌入式說話識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說話識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) 0 引 言    說話人身份識別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語
    發(fā)表于 12-28 17:55 ?659次閱讀
    DSP嵌入式<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別系統(tǒng)</b>的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說話識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說話識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)  0 引 言   說話人身份識別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語音中反映
    發(fā)表于 01-06 14:07 ?624次閱讀
    DSP嵌入式<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別系統(tǒng)</b>的設(shè)計(jì)與實(shí)現(xiàn)

    基于FPGA的說話識別系統(tǒng)設(shè)計(jì)

    基于FPGA的說話識別系統(tǒng)設(shè)計(jì)
    發(fā)表于 01-18 20:39 ?26次下載

    DSP嵌入式說話識別系統(tǒng)的設(shè)計(jì)方案

    等領(lǐng)域的應(yīng)用逐漸增大,并成為人們?nèi)粘I詈凸ぷ髦兄匾移占暗陌踩?b class='flag-5'>驗(yàn)證方式。目前,說話人身份識別在理論上和實(shí)驗(yàn)室條件下已經(jīng)達(dá)到了比較高的識別精度,并開始走向?qū)嶋H應(yīng)用階段。ATT、歐洲電信
    發(fā)表于 11-02 16:14 ?0次下載
    DSP嵌入式<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別系統(tǒng)</b>的設(shè)計(jì)<b class='flag-5'>方案</b>

    基于MAP+CMLLR的說話識別中發(fā)聲力度問題

    為了改善發(fā)聲力度對說話識別系統(tǒng)性能的影響,在訓(xùn)練語音存在少量耳語、高喊語音數(shù)據(jù)的前提下,提出了使用最大后驗(yàn)概率(MAP)和約束最大似然線性回歸(CMLLR)相結(jié)合的方法來更新說話
    發(fā)表于 12-05 15:21 ?0次下載
    基于MAP+CMLLR的<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別</b>中發(fā)聲力度問題

    一種新的說話識別系統(tǒng)框架

    針對目前說話識別系統(tǒng)的效率問題,采用集成算法的策略,提出一種新的說話識別系統(tǒng)框架。首先,考慮
    發(fā)表于 01-08 10:17 ?0次下載

    基于CS的說話識別算法

    提出了一種基于壓縮感知(CS) 的說話識別算法以及在ARM 系統(tǒng)中的實(shí)現(xiàn),首先,介紹壓縮感知理論框架,提出說話
    發(fā)表于 01-18 17:33 ?3次下載
    基于CS的<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別</b>算法

    基于TDSDM642EVM數(shù)字處理芯片實(shí)現(xiàn)實(shí)時說話識別系統(tǒng)的設(shè)計(jì)

    說話識別又稱聲紋識別,是通過說話的聲音特征進(jìn)行身份認(rèn)證的一種生物特征
    發(fā)表于 08-06 13:17 ?839次閱讀
    基于TDSDM642EVM數(shù)字處理芯片實(shí)現(xiàn)實(shí)時<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別系統(tǒng)</b>的設(shè)計(jì)

    基于GMM的實(shí)時說話識別系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《基于GMM的實(shí)時說話識別系統(tǒng).pdf》資料免費(fèi)下載
    發(fā)表于 10-08 10:19 ?0次下載
    基于GMM的實(shí)時<b class='flag-5'>說話</b><b class='flag-5'>人</b><b class='flag-5'>識別系統(tǒng)</b>