它急了,它急了! 就在昨天,美國(guó)各方頻頻發(fā)出對(duì)DeepSeek「偷竊數(shù)據(jù)」的指控。 先是特朗普的AI事務(wù)主管David Sacks聲稱,有所謂「確鑿證據(jù)」表明DeepSeek利用了OpenAI模型的輸出數(shù)據(jù)來(lái)開發(fā)自身技術(shù)。 然后微軟的研究人員就跟著站出來(lái)表示,與DeepSeek相關(guān)的個(gè)人,曾在去年秋天使用OpenAI的API大規(guī)模提取數(shù)據(jù)。 剛剛, Anthropic CEO Dario Amodei也發(fā)出了長(zhǎng)篇檄文:DeepSeek的進(jìn)展表明,美國(guó)應(yīng)該加強(qiáng)對(duì)華芯片出口管制! 不僅如此,美國(guó)還針對(duì)DeepSeek的線上服務(wù),進(jìn)行不間斷的大規(guī)模攻擊。 直到目前,API和網(wǎng)頁(yè)對(duì)話服務(wù)都還處于異常狀態(tài)。 據(jù)悉,美國(guó)海軍已向相關(guān)人員發(fā)出郵件示警,提醒「不得以任何形式下載、安裝或使用DeepSeek模型」。 而作為美國(guó)忠實(shí)「盟友」的意大利,也在第一時(shí)間跟進(jìn)了制裁——直接把蘋果和谷歌應(yīng)用商店里的DeepSeek APP,全給下架了。 蘋果App Store向意大利用戶顯示的通知稱,該應(yīng)用「目前在您所在的國(guó)家或地區(qū)不可用」。谷歌應(yīng)用平臺(tái)則顯示在意大利「不支持」下載。 微軟和OpenAI:DeepSeek偷我們數(shù)據(jù),有證據(jù) DeepSeek僅用了2048塊英偉達(dá)H800,投入560萬(wàn)美元,就訓(xùn)出了約6710億參數(shù)的V3模型,由此引發(fā)前所未有的風(fēng)暴。 彭博社表示,如今微軟和OpenAI已經(jīng)在展開調(diào)查,DeepSeek是否曾以未經(jīng)授權(quán)的方式,獲得了OpenAI的數(shù)據(jù)輸出。 他們表示,這類活動(dòng)可能已經(jīng)違反了OpenAI的服務(wù)條款,或者說(shuō)相關(guān)團(tuán)體正在試圖繞過(guò)OpenAI對(duì)可獲取數(shù)據(jù)量的限制。 知情人士透露,微軟作為OpenAI的技術(shù)合作伙伴及其最大投資者,已將此事透露給了OpenAI。 彭博社這樣描述DeepSeek-R1模型引起的轟動(dòng)效應(yīng):「這一潛在威脅動(dòng)搖了美國(guó)科技公司的行業(yè)領(lǐng)先地位,導(dǎo)致與AI相關(guān)的科技股大跌,包括微軟、英偉達(dá)、甲骨文以及谷歌母公司Alphabet。本周一,這些公司的市值合計(jì)蒸發(fā)近1萬(wàn)億美元。」 特朗普的AI事務(wù)專員David Sacks周二表示,已有「證據(jù)」表明DeepSeek利用了OpenAI模型的輸出來(lái)開發(fā)自己的技術(shù)。 在接受?怂剐侣劜稍L時(shí),Sacks表示,DeepSeek利用蒸餾技術(shù)獲得了能力,即一個(gè)AI模型使用另一個(gè)模型的輸出進(jìn)行訓(xùn)練。 「有確鑿證據(jù)表明DeepSeek通過(guò)蒸餾技術(shù)提取了OpenAI模型的知識(shí),而我認(rèn)為OpenAI對(duì)此并不高興! 不過(guò),到底都有哪些證據(jù),卻只字未提。 OpenAI:正在展開調(diào)查 而針對(duì)Sacks的言論,OpenAI也在一份聲明中表示,中國(guó)的一些團(tuán)隊(duì)「正在使用包括蒸餾在內(nèi)的方法,試圖復(fù)制美國(guó)先進(jìn)的AI模型! 我們已經(jīng)注意到DeepSeek可能不當(dāng)蒸餾我們模型的跡象,正在對(duì)之審查,并將在掌握更多信息后進(jìn)行分享。我們正在采取一系列保護(hù)措施來(lái)維護(hù)知識(shí)產(chǎn)權(quán),包括謹(jǐn)慎評(píng)估在發(fā)布模型時(shí)應(yīng)包含哪些前沿技術(shù)能力。我們認(rèn)為,與美國(guó)政府保持密切合作對(duì)于保護(hù)最先進(jìn)的模型至關(guān)重要,這可以防止競(jìng)爭(zhēng)對(duì)手和其他相關(guān)方獲取美國(guó)的核心技術(shù)。 在業(yè)界,蒸餾其實(shí)是一種常見做法。 但在OpenAI但服務(wù)條款中,有這么一條規(guī)定:用戶不得「復(fù)制」其任何服務(wù)或「使用輸出來(lái)開發(fā)與OpenAI存在競(jìng)爭(zhēng)的模型」。 有專家指出,DeepSeek在訓(xùn)練中用到了GPT-4的輸出 業(yè)內(nèi)人士透露,中美兩國(guó)的AI實(shí)驗(yàn)室,普遍都會(huì)用OpenAI模型的輸出內(nèi)容。畢竟OpenAI斥巨資雇傭了人員訓(xùn)練模型產(chǎn)生更接近人類的響應(yīng),這種人類對(duì)齊訓(xùn)練成本高昂,需要大量人力。 UC伯克利的AI博士生Twik Gupta就表示:「初創(chuàng)公司和學(xué)術(shù)界普遍會(huì)使用ChatGPT等經(jīng)過(guò)人類對(duì)齊的商業(yè)LLM輸出,來(lái)訓(xùn)練新模型。這相當(dāng)于免費(fèi)獲得了人類反饋這個(gè)訓(xùn)練環(huán)節(jié)! DeepSeek是「克隆」?LeCun轉(zhuǎn)發(fā):不懂別瞎說(shuō) 對(duì)于這些流傳甚廣的說(shuō)法,LeCun前幾日就轉(zhuǎn)發(fā)了Perplexity CEO Aravind Srinivas的帖子,表示澄清。 Aravind Srinivas寫道,很多人以為中國(guó)克隆了OpenAI的成果,他們明顯對(duì)模型訓(xùn)練方式的理解很片面。 DeepSeek已經(jīng)找到了強(qiáng)化學(xué)習(xí)微調(diào)的方法,他們的「DeepSeek-R1 Zero」論文中,也沒(méi)有使用監(jiān)督微調(diào)。 隨后,他們結(jié)合了一些SFT,并通過(guò)良好的拒絕采樣(即過(guò)濾)來(lái)增加領(lǐng)域知識(shí)。 DeepSeek-R1之所以表現(xiàn)出色,主要原因在于它是從零開始學(xué)習(xí)推理能力,而不是簡(jiǎn)單模仿人類或其他模型。 機(jī)器學(xué)習(xí)大牛Sebastian Raschka也對(duì)于這種說(shuō)法表示駁斥。 他表示,在LLM的背景下,「蒸餾」這個(gè)術(shù)語(yǔ)的使用已經(jīng)相當(dāng)寬泛。 團(tuán)隊(duì)只是為SFT創(chuàng)建并整理了一個(gè)數(shù)據(jù)集,用于訓(xùn)練基于Qwen和Llama的R1模型。 Anthropic CEO長(zhǎng)篇檄文:加大制裁力度,趕緊的 Anthropic CEO Dario Amodei也剛剛發(fā)出萬(wàn)字檄文,對(duì)美國(guó)政府發(fā)出警告—— DeepSeek的崛起,就證明美國(guó)對(duì)華的芯片管制應(yīng)該繼續(xù)加碼! 有趣的是,針對(duì)Amodei的行為,LeCun轉(zhuǎn)發(fā)了以下這個(gè)梗圖。 檄文全文如下。 出口管制肩負(fù)著一個(gè)重要使命:確保我們?cè)贏I發(fā)展中保持領(lǐng)先地位。為此,美國(guó)及其盟友的AI公司就必須開發(fā)出比中國(guó)更優(yōu)秀的模型。 幾周前,我曾提出加強(qiáng)美國(guó)對(duì)華芯片出口管制的理由。緊接著,DeepSeek就以更低的成本,實(shí)現(xiàn)了接近美國(guó)前沿AI模型的性能。 結(jié)合這些情況來(lái)看,我認(rèn)為加緊出口管制,比一周前顯得更重要了! AI發(fā)展的三個(gè)動(dòng)態(tài)特征 在闡述政策主張之前,我將描述AI系統(tǒng)的三個(gè)基本動(dòng)態(tài)特征。 1. Scaling Law AI的一個(gè)特性,就是在其他條件相同的情況下,擴(kuò)大AI系統(tǒng)的訓(xùn)練規(guī)模會(huì)導(dǎo)致在各類認(rèn)知任務(wù)上的性能平穩(wěn)提升。 例如,一個(gè)100萬(wàn)美元的模型可能解決20%的重要編程任務(wù),1000萬(wàn)美元的可能解決40%,1億美元的可能解決60%,以此類推。 這些差異在實(shí)踐中往往帶來(lái)重大影響——再增加10倍投入,可能意味著從本科生到博士水平的跨越——因此各公司都在大力投資訓(xùn)練這些模型。 2. 曲線位移 AI領(lǐng)域正不斷涌現(xiàn)大大小小的創(chuàng)新理念,使系統(tǒng)變得更有效或更高效:可能是模型架構(gòu)的改進(jìn),或只是優(yōu)化模型在底層硬件上的運(yùn)行方式。 新一代硬件同樣具有這種效果。 這通常會(huì)導(dǎo)致曲線位移:如果創(chuàng)新帶來(lái)2倍的「計(jì)算乘數(shù)」(Compute Multiplier,CM),那么只需500萬(wàn)美元而非1000萬(wàn)美元就能在編程任務(wù)上達(dá)到40%的成功率;或者用5000萬(wàn)美元而非1億美元達(dá)到60%的成功率。 每家前沿AI公司都經(jīng)常發(fā)現(xiàn)這樣的算力倍增效應(yīng):通常是小幅度的(約1.2倍),有時(shí)是中等規(guī)模的(約2倍),偶爾會(huì)有顯著的(約10倍)。 由于更智能系統(tǒng)的價(jià)值極高,這種曲線位移往往促使公司增加而非減少模型訓(xùn)練投入:成本效率的提升將完全用于訓(xùn)練更智能的模型,僅受限于公司的財(cái)務(wù)資源。 人們通常會(huì)有「先貴后便宜」的思維模式——仿佛AI是一個(gè)質(zhì)量恒定的單一產(chǎn)品,變得更便宜時(shí)就能用更少的芯片來(lái)訓(xùn)練。 但關(guān)鍵在于規(guī)模曲線(scaling curve):當(dāng)曲線位移時(shí),我們只是更快地達(dá)到目標(biāo),因?yàn)榻K點(diǎn)的價(jià)值無(wú)比重要。 2020年,我的團(tuán)隊(duì)就發(fā)表論文指出,算法進(jìn)步帶來(lái)的曲線位移每年約為1.68倍。這個(gè)速度現(xiàn)已顯著提升,且尚未考慮效率和硬件因素。 我估計(jì)現(xiàn)在這個(gè)數(shù)字可能達(dá)到每年4倍。訓(xùn)練曲線的位移也會(huì)帶動(dòng)推理曲線位移,因此多年來(lái)在保持模型質(zhì)量不變的情況下,價(jià)格持續(xù)大幅下降。 例如,比GPT-4晚15個(gè)月發(fā)布的Claude 3.5 Sonnet,在幾乎所有基準(zhǔn)測(cè)試中都超越了GPT-4,而API價(jià)格僅為后者的十分之一。 3. 范式轉(zhuǎn)變 有時(shí),被擴(kuò)展的基礎(chǔ)要素會(huì)發(fā)生變化,或訓(xùn)練過(guò)程中會(huì)引入新的擴(kuò)展類型。 2020年至2023年間,擴(kuò)展主要集中在預(yù)訓(xùn)練模型上:這些模型在海量互聯(lián)網(wǎng)文本上訓(xùn)練,只需少量額外訓(xùn)練。 到了2024年,使用強(qiáng)化學(xué)習(xí)(RL)訓(xùn)練模型生成思維鏈已成為擴(kuò)展的新焦點(diǎn)。 Anthropic、OpenAI、DeepSeek等公司發(fā)現(xiàn),這種訓(xùn)練顯著提升了模型在特定、可客觀衡量的任務(wù)(如數(shù)學(xué)、編程競(jìng)賽)及類似推理任務(wù)上的表現(xiàn)。 這種新范式始于常規(guī)預(yù)訓(xùn)練模型,然后在第二階段使用RL添加推理能力。 值得注意的是,由于這種RL方法較新,我們?nèi)蕴幱跀U(kuò)展曲線(scaling curve)的早期:所有參與者在第二階段RL上的投入都相對(duì)較小。從10萬(wàn)美元增加到100萬(wàn)美元就能帶來(lái)顯著提升。 DeepSeek-R1不值一提 上述三個(gè)動(dòng)態(tài)特征可以幫助我們理解DeepSeek最近發(fā)布的模型。 大約一個(gè)月前,DeepSeek發(fā)布了名為「DeepSeek-V3」的純預(yù)訓(xùn)練模型。隨后在上周,他們又發(fā)布了添加第二階段訓(xùn)練的「R1」模型。 雖然從外部視角難以完全掌握這些模型的所有細(xì)節(jié),但以下是我對(duì)這兩次發(fā)布的深入理解。 DeepSeek-V3的發(fā)布堪稱重大創(chuàng)新,這本應(yīng)在一個(gè)月前就引起業(yè)界廣泛關(guān)注。 作為一個(gè)預(yù)訓(xùn)練模型,它在某些重要任務(wù)上的表現(xiàn)已經(jīng)接近美國(guó)最先進(jìn)的模型,同時(shí)顯著降低了訓(xùn)練成本。 DeepSeek團(tuán)隊(duì)通過(guò)一系列令人印象深刻的創(chuàng)新實(shí)現(xiàn)了這一突破,主要集中在提升工程效率方面。他們?cè)凇告I值緩存」(Key-Value cache)管理方面做出了特別創(chuàng)新的改進(jìn),并且將MoE方法推進(jìn)到了前所未有的水平。 然而,我們需要仔細(xì)審視: DeepSeek并非「只用600萬(wàn)美元就做到了美國(guó)AI公司需要數(shù)十億美元才能做到的事」。Claude 3.5 Sonnet是一個(gè)中等規(guī)模的模型,訓(xùn)練成本在數(shù)千萬(wàn)美元級(jí)別(具體數(shù)字不便透露)。此外,3.5 Sonnet的訓(xùn)練過(guò)程完全沒(méi)有涉及更大或更昂貴的模型(與某些傳言相反)。Sonnet的訓(xùn)練是在9-12個(gè)月前進(jìn)行的,而DeepSeek的模型是在去年11、12月訓(xùn)練的,但在眾多內(nèi)部和外部評(píng)估中,Sonnet仍然保持明顯領(lǐng)先。因此,一個(gè)客觀的說(shuō)法是:「DeepSeek以較低的成本(但遠(yuǎn)未達(dá)到外界猜測(cè)的比例)開發(fā)出了一個(gè)性能接近7-10個(gè)月前美國(guó)模型水平的產(chǎn)品」。 如果成本曲線的歷史下降趨勢(shì)是每年約4倍,這意味著在正常業(yè)務(wù)發(fā)展過(guò)程中——即在 2023年和2024年出現(xiàn)的常規(guī)成本下降趨勢(shì)中——我們預(yù)計(jì)現(xiàn)在會(huì)出現(xiàn)比3.5 Sonnet/GPT-4便宜3-4倍的模型。由于DeepSeek-V3不如這些美國(guó)前沿模型——在擴(kuò)展曲線上大約差了2倍,這個(gè)估計(jì)對(duì)DeepSeek-V3來(lái)說(shuō)已經(jīng)相當(dāng)寬容——這表明如果DeepSeek-V3的訓(xùn)練成本比一年前開發(fā)的美國(guó)當(dāng)前模型低約8倍,這完全符合預(yù)期。我不會(huì)給出具體數(shù)字,但從前面的分析可以清楚看出,即使按照表面價(jià)值來(lái)看DeepSeek的訓(xùn)練成本,他們最多只是符合行業(yè)趨勢(shì),甚至可能還達(dá)不到這個(gè)水平。例如,這比原始GPT-4到Claude 3.5 Sonnet的推理價(jià)格差異(10倍)還要小,而且3.5 Sonnet是比GPT-4更優(yōu)秀的模型。這些都表明,DeepSeek-V3并非獨(dú)特的突破,也不是從根本上改變LLM經(jīng)濟(jì)學(xué)的創(chuàng)新;它只是持續(xù)成本降低曲線上的一個(gè)預(yù)期點(diǎn)。這次的特殊之處在于,首先展示預(yù)期成本降低的是一家中國(guó)公司。這種情況前所未有,具有重要的地緣政治意義。然而,美國(guó)公司很快就會(huì)跟進(jìn)——他們不是通過(guò)復(fù)制DeepSeek,而是因?yàn)樗麄兺瑯釉趯?shí)現(xiàn)常規(guī)的成本降低趨勢(shì)。 DeepSeek和美國(guó)AI公司目前都擁有比訓(xùn)練其主打模型時(shí)更多的資金和芯片。這些額外的芯片用于研發(fā)模型背后的理念,有時(shí)也用于訓(xùn)練尚未成熟的更大模型(或需要多次嘗試才能完善的模型)。據(jù)真實(shí)性未經(jīng)證實(shí)的報(bào)道,DeepSeek擁有50,000片Hopper芯片,我估計(jì)這在規(guī)模上與主要美國(guó)AI公司相差約2~3倍。因此,DeepSeek作為一家公司的總投入與美國(guó)AI實(shí)驗(yàn)室的差距并不顯著。 值得注意的是,「擴(kuò)展曲線」分析可能過(guò)于簡(jiǎn)化,因?yàn)椴煌P透饔刑厣,?yōu)劣勢(shì)各異;擴(kuò)展曲線的數(shù)據(jù)只是一個(gè)忽略了諸多細(xì)節(jié)的粗略平均值。正如前文所述,Claude在編程能力和人機(jī)交互設(shè)計(jì)方面表現(xiàn)卓越。在這些及其他特定任務(wù)上,DeepSeek與之相比仍有較大差距。這些優(yōu)勢(shì)特性并未反映在擴(kuò)展曲線的數(shù)據(jù)中。 上周發(fā)布的R1模型引發(fā)了公眾的廣泛關(guān)注,但從創(chuàng)新或工程的角度來(lái)看,它遠(yuǎn)不如V3具有研究?jī)r(jià)值。 R1增加的第二階段訓(xùn)練(強(qiáng)化學(xué)習(xí)),是復(fù)制了OpenAI在o1上所做的工作。 然而,由于我們?nèi)蕴幱谀P汀笖U(kuò)展曲線」的早期階段,只要以一個(gè)強(qiáng)大的預(yù)訓(xùn)練模型為基礎(chǔ),多家公司都有可能開發(fā)出這類模型。在已有V3的基礎(chǔ)上,開發(fā)R1的成本可能相當(dāng)?shù)汀?/p> 因此,我們正處于一個(gè)關(guān)鍵的轉(zhuǎn)折點(diǎn),即暫時(shí)出現(xiàn)了多家公司都能生產(chǎn)出高質(zhì)量推理模型的局面。但隨著各公司在這些模型的擴(kuò)展曲線上繼續(xù)向上攀升,這種局面將很快改變。 出口管制力度還需加大 以上內(nèi)容都是為我的核心關(guān)注點(diǎn)作鋪墊:對(duì)中國(guó)的芯片出口管制。 我對(duì)這種情況的看法如下: 目前存在一個(gè)持續(xù)的趨勢(shì),即各公司在訓(xùn)練強(qiáng)大的AI模型上的投入不斷增加,盡管成本曲線會(huì)周期性下移,訓(xùn)練特定智能水平模型的成本也在迅速下降。然而,由于訓(xùn)練更智能模型所帶來(lái)的經(jīng)濟(jì)價(jià)值極其巨大,任何成本節(jié)約幾乎立即就被消耗殆盡——這些節(jié)省下來(lái)的成本又被投入到使用相同巨額預(yù)算開發(fā)更智能的模型中。對(duì)于美國(guó)實(shí)驗(yàn)室尚未發(fā)現(xiàn)的創(chuàng)新,DeepSeek開發(fā)的效率創(chuàng)新很快就會(huì)被美國(guó)和中國(guó)的實(shí)驗(yàn)室應(yīng)用于訓(xùn)練數(shù)十億美元級(jí)別的模型。這些模型的表現(xiàn)會(huì)比他們之前計(jì)劃訓(xùn)練的數(shù)十億美元模型更優(yōu)異——但投入仍將保持在數(shù)十億美元水平。這個(gè)數(shù)字會(huì)持續(xù)攀升,直到我們實(shí)現(xiàn)在幾乎所有領(lǐng)域都超越絕大多數(shù)人類智能水平的AI。 開發(fā)出在幾乎所有領(lǐng)域都超越絕大多數(shù)人類智能水平的AI將需要數(shù)百萬(wàn)片芯片、至少數(shù)百億美元的投入,這很可能發(fā)生在2026-2027年。DeepSeek的發(fā)布并不會(huì)改變這一預(yù)期,因?yàn)樗鼈兓痉线@些計(jì)算中一直考慮在內(nèi)的預(yù)期成本下降曲線。這意味著在2026-2027年,我們可能會(huì)面臨兩個(gè)截然不同的世界。在美國(guó),多家公司必定會(huì)獲得所需的數(shù)百萬(wàn)片芯片(耗資數(shù)百億美元)。關(guān)鍵問(wèn)題在于中國(guó)是否也能獲得這樣數(shù)量的芯片。 如果中國(guó)能獲得,我們將生活在一個(gè)兩極世界,美國(guó)和中國(guó)都將擁有強(qiáng)大的AI模型,這將推動(dòng)科技呈現(xiàn)爆發(fā)式發(fā)展——我將其稱為「數(shù)據(jù)中心里的天才國(guó)度」(countries of geniuses in a datacenter)。但這種兩極格局不一定能永遠(yuǎn)維持平衡。即使美中兩國(guó)在AI系統(tǒng)上實(shí)力相當(dāng),中國(guó)可能會(huì)將更多的人才、資金和注意力投入到這項(xiàng)技術(shù)當(dāng)中。結(jié)合其龐大的工業(yè)基礎(chǔ)優(yōu)勢(shì),這可能幫助中國(guó)在全球舞臺(tái)上獲得主導(dǎo)地位,不僅是在AI領(lǐng)域,而是在所有領(lǐng)域。 如果中國(guó)無(wú)法獲得數(shù)百萬(wàn)片芯片,我們將生活在一個(gè)單極世界,只有美國(guó)及其盟友擁有這些模型。單極世界的持續(xù)時(shí)間尚難預(yù)測(cè),但存在這樣一種可能:由于AI系統(tǒng)最終可以協(xié)助開發(fā)更智能的系統(tǒng),暫時(shí)的領(lǐng)先優(yōu)勢(shì)可能會(huì)轉(zhuǎn)化為持久的優(yōu)勢(shì)。因此,在這種情況下,美國(guó)及其盟友可能會(huì)在全球舞臺(tái)上確立主導(dǎo)地位并長(zhǎng)期保持這一優(yōu)勢(shì)。 嚴(yán)格執(zhí)行的出口管制是唯一能阻止中國(guó)獲得數(shù)百萬(wàn)片芯片的手段,因此也是決定我們最終是進(jìn)入單極還是兩極世界的最關(guān)鍵因素。 DeepSeek的表現(xiàn)并不意味著出口管制失敗。如前文所述,DeepSeek擁有中等到大規(guī)模數(shù)量的芯片,因此他們能夠開發(fā)并訓(xùn)練出一個(gè)強(qiáng)大的模型并不令人意外。他們所面臨的資源限制并不比美國(guó)AI公司明顯更多,出口管制也并非促使他們「創(chuàng)新」的主要因素。他們只是一群極具才華的工程師,這也顯示了為什么中國(guó)是美國(guó)的重要競(jìng)爭(zhēng)對(duì)手。 DeepSeek的AI芯片儲(chǔ)備中,由應(yīng)該但還沒(méi)被禁的芯片、在禁令前交付的芯片等構(gòu)成。這表明出口管制實(shí)際上正在發(fā)揮作用并不斷完善:監(jiān)管漏洞正在被逐步填補(bǔ);否則,他們所有的芯片可能都是最頂級(jí)的H100。如果我們能夠及時(shí)堵住這些漏洞,就可能阻止中國(guó)獲得數(shù)百萬(wàn)片芯片,從而增加形成美國(guó)領(lǐng)先的單極世界格局的可能性。 鑒于我對(duì)出口管制和美國(guó)國(guó)家安全的關(guān)注,我需要明確一點(diǎn):我并不將DeepSeek視為對(duì)手,我們的重點(diǎn)也并非針對(duì)他們。 從他們接受的采訪來(lái)看,他們是一群聰明且充滿求知欲的研究人員,只是希望開發(fā)能造福社會(huì)的技術(shù)。 然而,為了防止中國(guó)在AI領(lǐng)域追平美國(guó),出口管制就是最有效工具之一。 若認(rèn)為技術(shù)日益強(qiáng)大、投資回報(bào)率提高就是應(yīng)當(dāng)解除出口管制的理由,這種邏輯是完全站不住腳的。 本文來(lái)源:新智元
|
原創(chuàng)欄目
IT百科
網(wǎng)友評(píng)論
聚超值•精選