作者 | Ben Linders
使用 AI 通用模型來(lái)完成代碼生成這類非常具體的任務(wù)可能會(huì)帶來(lái)問(wèn)題。人工智能生成的代碼就像是陌生人的代碼,它們可能并不符合你的代碼質(zhì)量標(biāo)準(zhǔn)。這種情況下,創(chuàng)建專業(yè)或?qū)S玫哪P筒皇橐粭l出路。
Luise Freese 和 Iona Varga 在 2023 年的 NDC Oslo 大會(huì)上探討了 AI 模型的實(shí)踐困境和倫理相關(guān)問(wèn)題。
Varga 提到,“人工智能”這個(gè)詞給人一種智慧的感覺(jué),雖然這個(gè)名字實(shí)際只是代表了這些模型的構(gòu)建方式。以節(jié)點(diǎn)相連的形式模仿人腦中神經(jīng)元與突觸連接而成的網(wǎng)絡(luò),這類模型因此而得名“人工網(wǎng)絡(luò)”或“人工智能”。
Freese 補(bǔ)充道,抽象來(lái)說(shuō),計(jì)算機(jī)是完全依賴于或開(kāi)或關(guān)的晶體管,通過(guò)這些開(kāi)關(guān)的組合,我們得以操縱比特。由于晶體管之間沒(méi)有相互的糾纏,這些開(kāi)關(guān)最終會(huì)帶來(lái)這樣的結(jié)果:
因此,計(jì)算機(jī)并不會(huì)思考,不過(guò)是我們的人工智能算法賦予了它們個(gè)性和特征,比如“讓我考慮一下”這類禮貌說(shuō)辭。AI 僅僅是利用統(tǒng)計(jì)數(shù)據(jù)對(duì)事物進(jìn)行預(yù)測(cè)、分類或組合。
Varga 提到,AI 的問(wèn)題在與使用極其通用的模型或是基礎(chǔ)模型完成非常具體的任務(wù)。大語(yǔ)言模型(LLM)的工作原理是先分析問(wèn)題、創(chuàng)建一兩個(gè)詞語(yǔ),再根據(jù)統(tǒng)計(jì)數(shù)據(jù)預(yù)測(cè)下一個(gè)標(biāo)記的最佳匹配。此外,LLM 本身是無(wú)法對(duì)事實(shí)進(jìn)行核查的,因?yàn)檫@類模型的設(shè)計(jì)目的是生成而非驗(yàn)證。
如果我們?cè)噲D建立一個(gè)能解決所有 AI 問(wèn)題的 AI 模型,那么我們將會(huì)創(chuàng)造出一種自我放大的螺旋式下降,F(xiàn)reese 補(bǔ)充道。若想實(shí)現(xiàn)螺旋式上升,那就應(yīng)該少用基礎(chǔ)模型,多用更為具體的模型,后者中有一部分實(shí)際就是搭建在基礎(chǔ)模型之上的。
AI 或許能生成代碼,但這些代碼是否能安全地使用,是否能滿足我們對(duì)質(zhì)量的標(biāo)準(zhǔn)要求?Varga 認(rèn)為這些問(wèn)題只能由真正的人類來(lái)回答,這一過(guò)程并不容小覷。歸根結(jié)底,就像是代碼的編寫(xiě)一樣,調(diào)試陌生人的代碼遠(yuǎn)比自己從頭到尾參與其中的代碼更為困難。
一般模型的理解能力也更為通用,這在代碼生成問(wèn)題上可能會(huì)帶來(lái)問(wèn)題,正如 Varga 所解釋的:
舉例來(lái)說(shuō),React v17 或 v16 這些可能沒(méi)有直接反應(yīng)在模型的上下文中,但模型也能了解這些代碼庫(kù)?;蛟S你會(huì)發(fā)現(xiàn)自己生成的一個(gè)函數(shù)中會(huì)混雜有兩個(gè)版本的代碼。
Varga 認(rèn)為,多數(shù)情況下 AI 都是解決問(wèn)題的好幫手。但使用 AI 就意味著你要去檢查、驗(yàn)證、修改、編輯或重寫(xiě)部分內(nèi)容,而這一部分可能才是我們低估 AI 工具帶來(lái)工作量的地方。
InfoQ 針對(duì)人工智能所帶來(lái)的挑戰(zhàn)問(wèn)題采訪了 Luise Freese 和 Iona Varga。
InfoQ:什么因素會(huì)造成 AI 的失敗?
Iona Varga:一般來(lái)說(shuō),AI 并不是命中注定要失敗的。我是醫(yī)學(xué)物理出身的,我也見(jiàn)過(guò)很多優(yōu)秀的 AI 工具,它們能出色地完成波彈性成像的實(shí)時(shí)剪切,早期階段的嬰兒檢測(cè),甚至能檢測(cè)出腫瘤專家都無(wú)法發(fā)現(xiàn)的肺癌細(xì)小結(jié)節(jié)。
但由于虛假數(shù)據(jù)和扭曲事實(shí)問(wèn)題的存在,這些結(jié)果并不完全可信。舉例來(lái)說(shuō),川普就職典禮上,實(shí)際的到場(chǎng)人數(shù)是要少于最初公布的數(shù)據(jù)。試著問(wèn)模型就職典禮的公園有多熱鬧,你大概會(huì)得到一個(gè)出乎意料的答案。但同樣,數(shù)據(jù)的來(lái)源時(shí)至今日也有頗具爭(zhēng)議的歷史背景,它們可能會(huì)出于政治劇本或標(biāo)準(zhǔn)等原因而被修改。
InfoQ:倫理道德如何才能幫助我們解決 AI 所帶來(lái)的問(wèn)題?
Luise Freese:倫理道德作為工具本身是幫不上太多忙的。倫理只是一種工作的方式,就像是 DevOps 一樣。一旦你有了規(guī)劃,知道該做什么了,“倫理道德”就是你對(duì)“完成”的定義。我所用的數(shù)據(jù)是否覆蓋了所有產(chǎn)品使用相關(guān)的人或事?通過(guò)這些道德的檢測(cè),我們的工作方式將會(huì)在可訪問(wèn)性、包容性和避免偏見(jiàn)方面得到改善。
審核編輯:黃飛
-
晶體管
+關(guān)注
關(guān)注
77文章
9706瀏覽量
138490 -
AI
+關(guān)注
關(guān)注
87文章
31133瀏覽量
269469 -
人工智能
+關(guān)注
關(guān)注
1792文章
47425瀏覽量
238962 -
大模型
+關(guān)注
關(guān)注
2文章
2489瀏覽量
2861
原文標(biāo)題:代碼生成:基于 AI 大模型的挑戰(zhàn)與前景
文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論