大型語言模型將如何影響美國國家安全?
ChatGPT風靡全球。自2022年11月發(fā)布以來,OpenAI的聊天機器人在SAT考試中取得了1020高分,通過了醫(yī)療執(zhí)照考試,成功地降低了用戶的有線電視費用,甚至起草了如何監(jiān)管AI的立法。從課堂到播客再到餐桌,甚至名人云集的電視節(jié)目,它一直是熱門話題。
關于ChatGPT對教育和勞動力等領域的影響,有很多評論。但是這個“ChatGPT時刻”,以及更廣泛的大語言模型(Large Language Models,LLMs),對美國國家安全意味著什么?
在戰(zhàn)略層面,各國將尋求利用AI模型獲得經(jīng)濟、軍事和國家安全優(yōu)勢。正如OpenAI首席執(zhí)行官 Sam Altman在國家AI安全委員會(NSCAI)2021年全球新興技術(shù)峰會期間告訴Eric Schmidt的那樣,“將有多種全球努力來構(gòu)建這些強大的人工智能系統(tǒng),而在世界上獲得我們想要的結(jié)果的最佳方式,即與自由民主制度相一致的AI,將需要我們和我們的盟友首先構(gòu)建它們”
本文的其余部分將概述LLMs的一些戰(zhàn)略考慮,首先評估我們今天在AI進步的高潮中所處的位置,然后轉(zhuǎn)向LLMs對國防部、情報界和更廣泛的美國國家安全機構(gòu)的具體影響。我們將以決策者的關鍵考慮作為結(jié)尾。
AI進步的“ChatGPT時刻”
ChatGPT并非憑空出現(xiàn)。相反,它是AI快速發(fā)展的更廣泛趨勢線中的最新數(shù)據(jù)點。近年來,自然語言處理(Natural Language Processing,NLP)以及其他提高機器任務性能的機器學習(ML)功能發(fā)展迅速。在OpenAI于2020年發(fā)布GPT-3和2022年底發(fā)布ChatGPT的時間之間,僅LLMs生態(tài)系統(tǒng)就已經(jīng)發(fā)展到包括來自世界各地的十幾個實體,它們已經(jīng)基于開源LLMs發(fā)布模型和構(gòu)建適合特定用途的工具。
LLMs生態(tài)系統(tǒng)中的參與者
今天推動LLMs向前發(fā)展的許多主要參與者都是美國公司。但是,中國的實體和公司,以及英國、以色列、韓國等國家的組織,也成為了重要的參與者。雖然美國私營部門具有競爭優(yōu)勢,但中國決心在AI領域超越美國,在各個領域爭奪領導地位,包括算力、算法、數(shù)據(jù)、應用程序、集成和人才。中國也是LLMs的快速追隨者,百度將在3月份發(fā)布自己的類ChatGPT的聊天機器人。
更重要的是,我們可以預期AI生態(tài)系統(tǒng)將進一步擴展,因為訓練AI模型的障礙(如成本)會隨著“無代碼AI”等新技術(shù)的出現(xiàn)而減少。美國必須為世界上越來越多的參與者,從國家到公司再到個人,做好準備,以便能夠為各種目的創(chuàng)建和利用定制算法。
事實上,LLMs等工具正變得越來越實用和易于使用。據(jù)報道,在上線的兩個月里,ChatGPT的月活躍用戶已達到創(chuàng)紀錄的1億。TikTok花了九個月的時間才達到這一里程碑。谷歌宣布將很快發(fā)布自己的聊天模型Bard,該模型建立在其內(nèi)部LaMDA模型之上。與許多其他組織一樣,SCSP在最近幾個月使用LLMs來幫助生成內(nèi)容。在我們的第一份報告《國家競爭力的中期挑戰(zhàn)》中,我們嘗試了三個LLM:OpenAI的GPT-3、Hugging Face的BLOOM和Anthropic開發(fā)的模型,向它們詢問報告旨在解決的關鍵問題(大致上,LLMs的回答是合理的)。我們還使用LLMs來幫助撰寫本文的前一版,我們的2022年全球新興技術(shù)峰會邀請了Anthropic LLM(與Anthropic聯(lián)合創(chuàng)始人Jack Clark一起)回答觀眾的現(xiàn)場提問。
然而,LLMs可以做的不僅僅是談論國家安全形勢,他們實際上開始塑造它。以下是美國國家安全企業(yè)中LLMs的一些潛在用例。
美國國家安全企業(yè)的機會
LLMs作為“智能化intelligentized”工具的接口:類似于ChatGPT的LLMs可以成為人類訪問各種AI工具的接口,包括計算機視覺和機器人技術(shù)。在癌癥篩查等任務中,人機團隊(Human-machine teams,HMT)已經(jīng)證明比單獨使用人類或AI模型更有效。在國家安全背景下,此類智能化工具可以通過AI生成的預測洞察力改變指標和警告格局,啟用半自主系統(tǒng),例如使用LLMs來訓練有用的機器人并與之交互,以及支持從物流和供應鏈管理到出口管制申請審查的任務。
LLM和情報:ChatGPT和其他新興技術(shù)有能力在所有情報學科(INT)和情報周期的各個階段,以及在戰(zhàn)爭的各個層面為軍隊建立一個更強大、更快的情報社區(qū)。使用ML模型的HMT功能已經(jīng)證明能夠通過過濾大量數(shù)據(jù)和標記重要信息來提高情報處理和分析的效率,并使分析師能夠?qū)W⒂诟钊氲姆治?。LLMs還可以通過幫助生成估計分析草稿、準確翻譯外文等來提高生產(chǎn)力。特別是對于開源情報(OSINT),具有外部搜索能力和專家知情培訓數(shù)據(jù)的LLMs將增強我們的收集和分析能力??梢詾閷﹂_源情報中心的需求和情報目的訓練和開發(fā)這些工具。
決策支持:決策優(yōu)勢將歸于領導人最有能力利用AI模型作為決策支持工具的國家。通過將AI、數(shù)據(jù)、建模和仿真功能以及預測洞察力正確組合,模型將能夠制定出各種政策選項,并向人類決策者提供分析。最近的成就,例如AI模型在戰(zhàn)略游戲“強權(quán)外交Diplomacy”中的表現(xiàn)優(yōu)于人類,其中涉及與對手互動和討價還價,以及在戰(zhàn)爭游戲中展示了這一技術(shù)向量的相當大的進步,即使還有更多的工作要做。LLMs在做出操作決策的半自治系統(tǒng)中應扮演的角色有明顯的局限性。然而,這些“專家”可能是房間里的另一個聲音,提供關于政策或戰(zhàn)爭選擇的實時、數(shù)據(jù)知情的觀點。
其他重要的國家安全考慮
信息格局:ChatGPT增加了NSCAI最終報告第1章中描述的風險,即在我們制定適當?shù)膶Σ咧?,我們的對手轉(zhuǎn)動了啟用AI的信息操作的表盤。諸如ChatGPT之類的LLMs可用于以速度和規(guī)模生成獨特的文本,從而避開現(xiàn)有的過濾系統(tǒng)。也許最重要的是,盡管這些技術(shù)能力在ChatGPT之前就已經(jīng)存在,但隨著公眾的關注,更多人可能會質(zhì)疑他們在社交媒體等上閱讀的內(nèi)容是否由AI生成。我們可能確實正在進入一個我們消費的大部分內(nèi)容都是AI生成的世界,為國家和非國家行為者創(chuàng)造新的載體來塑造信息格局。令人欣慰的是,最近合成內(nèi)容檢測功能的激增,包括OpenAI發(fā)布的文本分類器和C2PA的規(guī)范標準,提高了國家安全專業(yè)人員和知情公民等人將擁有可用于幫助識別合成媒體的工具的前景。
數(shù)據(jù)和訓練是基礎:LLMs近年來取得了長足的進步,但它們不是神諭。它們最終只能與訓練它們的數(shù)據(jù)一樣好,并且可以產(chǎn)生沒有事實依據(jù)的“幻覺”信息。它們的使用總是會帶來相關的風險,人類必須仔細考慮。盡管如此,LLMs將繼續(xù)激增,因為國家、公司和其他參與者推動了最先進的技術(shù)水平,并且人們將ChatGPT等工具集成到他們的日常生活中。任何擁有全球技術(shù)野心的國家都不會在生態(tài)系統(tǒng)向前發(fā)展時轉(zhuǎn)身離開。
AI對抗AI:隨著AI功能被整合到國家安全設備中,我們的LLMs可能會與我們的對手進行測試,無論是在特定情況下還是為了整體信息優(yōu)勢。美國將需要利用私營部門的競爭優(yōu)勢來確保我們的LLMs是世界上最好的。此外,我們需要確保美國軍方和情報界的AI工具在適當情況下能夠與我們的盟友和合作伙伴的AI工具進行互操作。
黑匣子問題:隨著我們越來越依賴AI系統(tǒng),我們需要一種方法來解釋和理解它們。“注意力建模attention modeling”和“思維鏈推理chain-of-thought reasoning”方面的進步是有前途的,但我們?nèi)匀粺o法“查詢”AI應用程序以“討論”其思維過程。這一領域的突破將使人類用戶能夠理解AI系統(tǒng)做出特定決定的原因,從而有助于建立對AI系統(tǒng)的信任。
網(wǎng)絡安全和代碼:LLMs將通過代碼生成在基礎計算機科學層面影響國家安全,對國家安全機構(gòu)、企業(yè)和消費者產(chǎn)生影響。Copilot是針對代碼生成進行微調(diào)的GPT-3版本,已經(jīng)大大提高了編碼準確性和生產(chǎn)率。類似的技術(shù)開始用于檢測和防止零日攻擊,并且通常可以幫助強化代碼。LLMs還將為網(wǎng)絡安全創(chuàng)造新的風險載體,例如降低惡意網(wǎng)絡參與者的進入門檻。這些風險將使大規(guī)模部署有助于確保我們的網(wǎng)絡系統(tǒng)安全的AI工具變得更加重要。
跟上技術(shù)的發(fā)展速度:無論是制定AI法規(guī)還是將AI能力整合到人類勞動力中,政府都將努力跟上技術(shù)快速發(fā)展的步伐。例如,歐盟委員會正在努力解決歐盟即將出臺的AI法案將如何處理ChatGPT等系統(tǒng)的問題,這凸顯了設置適用于最新功能的治理模型的難度。同樣,工具和技術(shù)的快速變化可能會導致政府部門和機構(gòu)采取保守的態(tài)度并繼續(xù)使用時已經(jīng)過時的系統(tǒng)。唯一的前進方向是讓采購流程和治理框架等變得足夠靈活,以便它們能夠跟上AI的步伐。
歸根結(jié)底,無論我們的領導者和組織是否傾向于“ChatGPT時刻”,LLMs和AI都將更廣泛地重塑國家安全格局。今天,美國在LLMs研發(fā)的前沿具有關鍵的競爭優(yōu)勢。但長期優(yōu)勢將通過采用此類工具來塑造,而那些無法適應和落后的人將面臨風險。
編輯:黃飛
?
評論
查看更多