0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么90%的機(jī)器學(xué)習(xí)模型從未應(yīng)用于生產(chǎn)

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-08 23:02 ? 次閱讀
時(shí)代變幻莫測(cè),僅僅增加客戶體驗(yàn)流暢度和沉浸感并不能減輕企業(yè)的壓力。在這種情況下,投入數(shù)十億美元開發(fā)可以改進(jìn)產(chǎn)品機(jī)器學(xué)習(xí)模型就可以理解了。但有一個(gè)問題。公司不能只是把錢砸在數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)工程師身上,就希望可以有奇跡發(fā)生。據(jù) VentureBeat 報(bào)道,大約 90% 的機(jī)器學(xué)習(xí)模型從未投入生產(chǎn)。換句話說(shuō),數(shù)據(jù)科學(xué)家的工作只有十分之一能夠真正產(chǎn)出對(duì)公司有用的東西。

本文最初發(fā)布于 Towards Data Science,由 InfoQ 中文站翻譯并分享。

大多數(shù)機(jī)器學(xué)習(xí)模型從未部署。圖片由作者提供。

企業(yè)正在經(jīng)歷艱難時(shí)期。我說(shuō)的不是病毒流行和股市波動(dòng)。

時(shí)代變幻莫測(cè),僅僅增加客戶體驗(yàn)流暢度和沉浸感并不能減輕企業(yè)的壓力。在這種情況下,投入 數(shù)十億美元 開發(fā)可以改進(jìn)產(chǎn)品的機(jī)器學(xué)習(xí)模型就可以理解了。

但有一個(gè)問題。公司不能只是把錢砸在數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)工程師身上,就希望可以有奇跡發(fā)生。

有數(shù)據(jù)為證。據(jù) VentureBeat 報(bào)道,大約 90% 的機(jī)器學(xué)習(xí)模型從未投入生產(chǎn)。換句話說(shuō),數(shù)據(jù)科學(xué)家的工作只有十分之一能夠真正產(chǎn)出對(duì)公司有用的東西。

盡管 十分之九 的科技高管相信,人工智能將成為下一次科技革命的中心,但人工智能的采用和部署尚未獲得長(zhǎng)足的發(fā)展,而這不能怪?jǐn)?shù)據(jù)科學(xué)家。

企業(yè)尚未準(zhǔn)備好采用機(jī)器學(xué)習(xí)

領(lǐng)導(dǎo)支持并不意味著投錢多

數(shù)據(jù)科學(xué)家的 就業(yè)市場(chǎng)非常好。企業(yè)在招聘,而且也已經(jīng)準(zhǔn)備好支付高薪。

當(dāng)然,管理人員和企業(yè)負(fù)責(zé)人期望這些數(shù)據(jù)科學(xué)家能帶來(lái)巨大的價(jià)值。然而,就目前而言,他們并沒有為此提供便利。

GAP 數(shù)據(jù)分析高級(jí)副總裁 Chris Chapo表示:“有時(shí)人們會(huì)想,我所需要做的只是針對(duì)一個(gè)問題投入資金或技術(shù),成功就會(huì)到來(lái)?!?/p>

為了幫助數(shù)據(jù)科學(xué)家在工作中發(fā)揮出色的作用,領(lǐng)導(dǎo)者不僅需要將資源引向正確的方向,還需要了解機(jī)器學(xué)習(xí)模型是干什么的。一個(gè)可能的解決方案是,讓領(lǐng)導(dǎo)者們自己接受一些數(shù)據(jù)科學(xué)的入門培訓(xùn),這樣他們就可以在公司里把這些知識(shí)付諸實(shí)踐。

數(shù)據(jù)訪問難度大

公司不擅長(zhǎng)收集數(shù)據(jù)。許多公司都是高度筒倉(cāng)化的,這意味著每個(gè)部門都有自己收集數(shù)據(jù)的方式、首選格式、存儲(chǔ)位置以及安全和隱私偏好。

另一方面,數(shù)據(jù)科學(xué)家經(jīng)常需要來(lái)自多個(gè)部門的數(shù)據(jù)。筒倉(cāng)化增加了清理和處理這些數(shù)據(jù)的難度。此外,許多數(shù)據(jù)科學(xué)家 抱怨,他們甚至無(wú)法獲得他們需要的數(shù)據(jù)。如果你沒有必要的數(shù)據(jù),怎么開始訓(xùn)練一個(gè)模型呢?

也許在過(guò)去,筒倉(cāng)化的公司結(jié)構(gòu)——以及無(wú)法訪問的數(shù)據(jù)——便于管理。但在一個(gè)技術(shù)飛速變革的時(shí)代,企業(yè)將需要加快步伐,在整個(gè)過(guò)程中建立起統(tǒng)一的數(shù)據(jù)結(jié)構(gòu)。

對(duì)于數(shù)據(jù)科學(xué)家來(lái)說(shuō),能夠獲取所需的數(shù)據(jù)至關(guān)重要。圖片由作者提供。

IT、數(shù)據(jù)科學(xué)和工程脫節(jié)

如果公司的目標(biāo)是減少“筒倉(cāng)”,這就意味著各部門需要更多地相互溝通,調(diào)整各自的目標(biāo)。

在許多公司中,IT 部門和數(shù)據(jù)科學(xué)部門之間存在著 根本性的分歧。IT 傾向于優(yōu)先考慮讓事情正常運(yùn)轉(zhuǎn)并保持穩(wěn)定。另一方面,數(shù)據(jù)科學(xué)家喜歡實(shí)驗(yàn)和破壞東西。這會(huì)導(dǎo)致溝通困難。

此外,對(duì)于數(shù)據(jù)科學(xué)家來(lái)說(shuō),工程并非總是必不可少的。這是一個(gè)問題,因?yàn)楣こ處熡袝r(shí)候可能無(wú)法了解數(shù)據(jù)科學(xué)家所設(shè)想的所有細(xì)節(jié),或者可能會(huì)由于溝通錯(cuò)誤而改變實(shí)現(xiàn)方式。因此,正如 StackOverflow 指出 的那樣,能夠部署模型的數(shù)據(jù)科學(xué)家比那些不能部署模型的數(shù)據(jù)科學(xué)家更有競(jìng)爭(zhēng)優(yōu)勢(shì)。

機(jī)器學(xué)習(xí)模型自身面臨的挑戰(zhàn)

擴(kuò)展比你想象的要難

模型在小環(huán)境中工作得很好,并不意味著它在任何地方都可以工作得很好。

首先,可能沒有處理更大數(shù)據(jù)集的硬件或云存儲(chǔ)空間可供使用。此外,在規(guī)模很大時(shí),機(jī)器學(xué)習(xí)模型的模塊并不總是像規(guī)模較小時(shí)那么有效。

最后,數(shù)據(jù)獲取可能比較困難,甚至不可能。正如前面所討論的,這可能是由于公司的筒倉(cāng)結(jié)構(gòu),也可能是由于在獲取更多數(shù)據(jù)時(shí)遇到的其他挑戰(zhàn)。

這也是在組織之間統(tǒng)一數(shù)據(jù)結(jié)構(gòu)、鼓勵(lì)不同部門之間進(jìn)行交流的另一個(gè)原因。

重復(fù)工作

在部署機(jī)器學(xué)習(xí)模型的漫長(zhǎng)道路上,超過(guò)四分之一 的企業(yè)都存在重復(fù)工作。

例如,軟件工程師可能會(huì)按數(shù)據(jù)科學(xué)家的說(shuō)法進(jìn)行實(shí)現(xiàn)。后者可能也會(huì)繼續(xù),自己做一些工作。

這不僅浪費(fèi)時(shí)間和資源,而且,當(dāng)涉眾不知道使用了哪個(gè)版本的代碼,在遇到任何錯(cuò)誤時(shí)就不知道應(yīng)該向誰(shuí)求助,這會(huì)導(dǎo)致額外的混亂。

如果數(shù)據(jù)科學(xué)家能夠?qū)崿F(xiàn)他們的模型,這是他們的優(yōu)勢(shì),但對(duì)于誰(shuí)做什么,他們應(yīng)該與工程師溝通清楚。這樣,就可以節(jié)省公司的時(shí)間和資源。

有效溝通對(duì)于機(jī)器學(xué)習(xí)模型正常運(yùn)行至關(guān)重要。圖片由作者提供。

高管們可能會(huì)不認(rèn)可

總體來(lái)說(shuō),技術(shù)高管 非常相信 人工智能的力量,但這并不意味著他們會(huì)同意所有的想法。據(jù) Algorithmia 報(bào)道,三分之一的企業(yè)高管將糟糕的部署統(tǒng)計(jì)數(shù)據(jù)歸咎于缺乏高層支持。

似乎人們?nèi)匀徽J(rèn)為數(shù)據(jù)科學(xué)家有點(diǎn)書呆子氣,缺乏商業(yè)意識(shí)。為此,數(shù)據(jù)科學(xué)家應(yīng)加強(qiáng)他們的業(yè)務(wù)技能,并盡可能尋求與高管的對(duì)話。

當(dāng)然,這并不意味著每個(gè)數(shù)據(jù)科學(xué)家需要 MBA 學(xué)位才能勝任他們的工作。然而,從課程或業(yè)務(wù)經(jīng)驗(yàn)中學(xué)習(xí)一些關(guān)鍵知識(shí)可能會(huì)對(duì)他們有長(zhǎng)遠(yuǎn)的幫助。

不能跨語(yǔ)言且缺少框架支持

由于機(jī)器學(xué)習(xí)模型仍處于起步階段,不同的語(yǔ)言和框架仍有相當(dāng)大的差距。

有些管道開始時(shí)是 Python 開始,中間是 R,最后是 Julia。有的則相反,或者完全使用其他語(yǔ)言。由于每種語(yǔ)言都有自己獨(dú)特的庫(kù)和依賴項(xiàng),項(xiàng)目很快就變得很難跟蹤。

此外,有些管道可能會(huì)使用 Docker 和 Kubernetes 進(jìn)行容器化,其他管道可能不會(huì)。有些管道將部署特定的 API,其他管道則不會(huì)。這樣的例子不勝枚舉。

為了彌補(bǔ)這種不足,像 TFX、Mlflow 和 Kubeflow 這樣的工具出現(xiàn)了。但這些工具仍處于起步階段,到目前為止,這方面的專家還很少。

數(shù)據(jù)科學(xué)家們知道,他們需要不斷了解自己領(lǐng)域的最新進(jìn)展。這應(yīng)該也適用于模型部署。

版本控制和再現(xiàn)仍面臨挑戰(zhàn)

與上述問題相關(guān)的是,到目前為止,機(jī)器學(xué)習(xí)模型版本控制還沒有一種可行的方法。顯然,數(shù)據(jù)科學(xué)家需要跟蹤他們所做的任何更改,但現(xiàn)在這相當(dāng)麻煩。

此外,數(shù)據(jù)集可能會(huì)隨時(shí)間漂移。隨著公司和項(xiàng)目的發(fā)展,這是很自然的,但這使得再現(xiàn)過(guò)去的結(jié)果變得更加困難。

更重要的是,一旦項(xiàng)目啟動(dòng),就會(huì)建立一個(gè)基準(zhǔn),用于現(xiàn)在和將來(lái)對(duì)模型進(jìn)行測(cè)試。結(jié)合版本控制,數(shù)據(jù)科學(xué)家可以再現(xiàn)他們的模型。

如果模型不可再現(xiàn),就會(huì)導(dǎo)致漫長(zhǎng)的調(diào)查研究。圖片由作者提供。

停止嘗試,開始部署

如果數(shù)據(jù)科學(xué)家 90% 的努力都沒有結(jié)果,這可不是一個(gè)好現(xiàn)象。這不是數(shù)據(jù)科學(xué)家的錯(cuò),如上所述,這是由于組織結(jié)構(gòu)上固有的障礙。

變革不是一天能完成的。對(duì)于剛剛開始接觸機(jī)器學(xué)習(xí)模型的公司,建議他們從一個(gè)非常小而簡(jiǎn)單的項(xiàng)目開始。

一旦管理者勾勒出一個(gè)清晰而簡(jiǎn)單的項(xiàng)目,第二步就是選擇合適的團(tuán)隊(duì)。這個(gè)團(tuán)隊(duì)?wèi)?yīng)該是跨職能的,應(yīng)該包括數(shù)據(jù)科學(xué)家、工程師、DevOps 和任何其他看起來(lái)對(duì)于獲得成功至關(guān)重要的角色。

第三,在開始的時(shí)候,管理者應(yīng)該考慮利用第三方來(lái)幫助他們加速這個(gè)過(guò)程。IBM 是提供這種服務(wù)的公司之一,但市場(chǎng)上也有其他公司。

最后一點(diǎn)是,切莫不惜一切代價(jià)追求先進(jìn)。如果一個(gè)簡(jiǎn)單的低成本模型能滿足 80% 的客戶需求,并能在幾個(gè)月內(nèi)交付,這已經(jīng)是一個(gè)了不起的成就了。此外,從構(gòu)建簡(jiǎn)單模型積累的經(jīng)驗(yàn)將有助于實(shí)現(xiàn)更復(fù)雜的模型,并有望使客戶百分之百滿意。

結(jié)論:革命需要時(shí)間

下一個(gè)十年注定是革命性的,就像上一個(gè)十年一樣。人工智能的廣泛應(yīng)用只是 眾多發(fā)展趨勢(shì) 中的一個(gè),物聯(lián)網(wǎng)、高級(jí)機(jī)器人技術(shù)和區(qū)塊鏈技術(shù)也在興起。

我說(shuō)的是幾十年,而不是幾年。例如,考慮到 90% 的公司都 已上云——如此之多,以至于我們很難想象沒有云我們?cè)趺瓷?。而另一方面,云是花?幾十年時(shí)間 才被廣泛地采用。

我們沒有理由認(rèn)為人工智能革命會(huì)有任何不同。它需要一段時(shí)間才能推廣開,因?yàn)槟壳斑€有許多需要解決的障礙。

但是,由于機(jī)器學(xué)習(xí)提供了如此多的方法來(lái)改善客戶體驗(yàn)和企業(yè)效率,顯然,贏家將是那些快速并盡早部署模型的公司。

本文轉(zhuǎn)自 公眾號(hào):AI前線 ,作者Rhea Moutafis,點(diǎn)擊閱讀原文

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1792

    文章

    47514

    瀏覽量

    239247
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8428

    瀏覽量

    132845
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121345
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級(jí)的精確控制,書中有介紹基于視覺伺服的實(shí)時(shí)控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場(chǎng)景中,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過(guò)在線
    發(fā)表于 12-24 15:03

    魯棒性在機(jī)器學(xué)習(xí)中的重要性

    機(jī)器學(xué)習(xí)領(lǐng)域,模型的魯棒性是指模型在面對(duì)輸入數(shù)據(jù)的擾動(dòng)、異常值、噪聲或?qū)剐怨魰r(shí),仍能保持性能的能力。隨著人工智能技術(shù)的快速發(fā)展,機(jī)器
    的頭像 發(fā)表于 11-11 10:19 ?462次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?1033次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?853次閱讀

    構(gòu)建語(yǔ)音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    2024-07-31 |Annabel Ng 在該項(xiàng)目的[上一篇博客文章]中,我介紹了運(yùn)行機(jī)器人電機(jī)、處理音頻信號(hào)和調(diào)節(jié)電壓所需的電路的基礎(chǔ)知識(shí)。然而,機(jī)器人還沒有完全完成!盡管機(jī)器人可以正確移動(dòng)
    的頭像 發(fā)表于 10-02 16:31 ?241次閱讀
    構(gòu)建語(yǔ)音控制<b class='flag-5'>機(jī)器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時(shí)間序列概述

    本帖最后由 1653149838.791300 于 2024-8-12 20:18 編輯 [/td] [td]收到《時(shí)間序列與機(jī)器學(xué)習(xí)》這本書,很是欣喜,書籍內(nèi)容很詳實(shí)也是自己很感興趣
    發(fā)表于 08-07 23:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來(lái)學(xué)習(xí)大語(yǔ)言模型在自然語(yǔ)言理解方面的原理以及問答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù)。 大語(yǔ)言模型涉及以下幾個(gè)過(guò)程: 數(shù)據(jù)收集:大語(yǔ)言
    發(fā)表于 08-02 11:03

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個(gè)流行的Python集成開發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測(cè)試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝PyCharm
    的頭像 發(fā)表于 07-11 10:14 ?867次閱讀

    Al大模型機(jī)器

    豐富的知識(shí)儲(chǔ)備。它們可以涵蓋各種領(lǐng)域的知識(shí),并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場(chǎng)景及未來(lái)發(fā)展趨勢(shì)等方面,以期為讀者提供一個(gè)全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?1455次閱讀

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.35】如何用「時(shí)間序列與機(jī)器學(xué)習(xí)」解鎖未來(lái)?

    捕捉復(fù)雜非線性模式的場(chǎng)景中顯得力不從心。 將時(shí)間序列的分析與預(yù)測(cè)用于大規(guī)模的數(shù)據(jù)生產(chǎn)一直存在諸多困難。 在這種背景下,結(jié)合機(jī)器學(xué)習(xí),特別是深度學(xué)習(xí)
    發(fā)表于 06-25 15:00

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    就無(wú)法修改,因此難以靈活應(yīng)用于下游文本的挖掘中。 詞嵌入表示:將每個(gè)詞映射為一個(gè)低維稠密的實(shí)值向量。不同的是,基于預(yù)訓(xùn)練的詞嵌入表示先在語(yǔ)料庫(kù)中利用某種語(yǔ)言模型進(jìn)行預(yù)訓(xùn)練,然后將其應(yīng)用到下游任務(wù)中,詞
    發(fā)表于 05-05 12:17

    傅里葉變換基本原理及在機(jī)器學(xué)習(xí)應(yīng)用

    連續(xù)傅里葉變換(CFT)和離散傅里葉變換(DFT)是兩個(gè)常見的變體。CFT用于連續(xù)信號(hào),而DFT應(yīng)用于離散信號(hào),使其與數(shù)字?jǐn)?shù)據(jù)和機(jī)器學(xué)習(xí)任務(wù)更加相關(guān)。
    發(fā)表于 03-20 11:15 ?999次閱讀
    傅里葉變換基本原理及在<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個(gè)開源的機(jī)器
    的頭像 發(fā)表于 03-01 16:25 ?927次閱讀

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型在強(qiáng)化學(xué)習(xí)領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學(xué)習(xí)和值函數(shù)近似。強(qiáng)化學(xué)習(xí)是指讓機(jī)器
    發(fā)表于 02-20 09:55 ?1.5w次閱讀
    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>模型</b>