首頁(yè) > 科技要聞 > 科技> 正文

紐約時(shí)報(bào)作家被AGI「洗腦」!AI橫掃奧數(shù)金牌、編寫(xiě)95%代碼,人類(lèi)卻毫無(wú)準(zhǔn)備

新智元 整合編輯:太平洋科技 發(fā)布于:2025-03-18 14:33

一覺(jué)醒來(lái),離AGI又近了一步。

紐約時(shí)報(bào)專(zhuān)欄作家Kevin Roose,發(fā)帖表示自己被AGI「洗腦」了,現(xiàn)在對(duì)AGI深有感觸。

強(qiáng)人工智能即將到來(lái),但人類(lèi)尚未做好準(zhǔn)備。

不論是樂(lè)觀主義者,還是悲觀主義者,Kevin Roose提出了邁向AGI進(jìn)展的三個(gè)論點(diǎn)。

他相信,在過(guò)去的幾年里,AI系統(tǒng)已經(jīng)在多個(gè)領(lǐng)域開(kāi)始超越人類(lèi)并且AI每天都更聰明。

而且很快——可能在2026年或2027年,但也可能就在今年——AI公司將會(huì)宣稱(chēng)他們已經(jīng)創(chuàng)造了AGI。

這不是漸進(jìn)式的改進(jìn),而是顛覆性的飛躍。

為AGI做準(zhǔn)備,最佳時(shí)機(jī)就是現(xiàn)在

AGI,通常被定義為——能夠完成幾乎所有人類(lèi)可以執(zhí)行的認(rèn)知任務(wù)的通用型AI系統(tǒng)。

Kevin Roose相信,那些堅(jiān)稱(chēng)所有進(jìn)展只是「煙霧彈」,并否認(rèn)AGI可能性的頑固AI懷疑論者,不僅在觀點(diǎn)上是錯(cuò)誤的,而且還給人們一種虛假的安全感。

無(wú)論你認(rèn)為AGI對(duì)人類(lèi)來(lái)說(shuō)是好事還是壞事——坦白講,現(xiàn)在下結(jié)論還為時(shí)尚早——它的到來(lái)提出了重要的經(jīng)濟(jì)、政治和技術(shù)問(wèn)題,而我們目前還沒(méi)有找到答案。

Kevin認(rèn)為,為AGI做準(zhǔn)備的最佳時(shí)機(jī),就是現(xiàn)在。

這一切,聽(tīng)起來(lái)可能有些瘋狂。

但Kevin并不是滿(mǎn)懷幻想的未來(lái)主義者,也不是炒作AI投資組合的投資人,更沒(méi)有吃了太多「毒蘑菇」然后看完了《終結(jié)者2》。

作為一名記者, 他花了大量時(shí)間與構(gòu)建強(qiáng)AI系統(tǒng)的工程師、為AI提供資金的投資人以及研究AI影響的學(xué)者交談。

而在這個(gè)過(guò)程中,他逐漸意識(shí)到,目前AI領(lǐng)域正在發(fā)生的事情,比大多數(shù)人所理解的要更重大。

在AI初創(chuàng)公司云集的舊金山,人們談?wù)撝父惺蹵GI」。

而打造比人類(lèi)更聰明的AI系統(tǒng),已經(jīng)成為硅谷巨頭的明確目標(biāo)。

每周,從事AI研究的工程師和創(chuàng)業(yè)者告訴他,巨變——顛覆性的、前所未有的變革——已經(jīng)近在咫尺。

去年剛剛離開(kāi)OpenAI、獨(dú)立的AI政策研究員Miles Brundage,認(rèn)為AGI可能會(huì)在十年內(nèi)誕生。

在美國(guó)除了灣區(qū)之外,很少有人聽(tīng)說(shuō)過(guò)AGI,更別提為其到來(lái)做準(zhǔn)備了。

而在媒體新聞業(yè)中,那些認(rèn)真對(duì)待AI進(jìn)展的記者,仍有可能被嘲笑為行業(yè)代言人的風(fēng)險(xiǎn)。

盡管如今AI系統(tǒng)已經(jīng)在諾貝爾獎(jiǎng)級(jí)別的科研突破中發(fā)揮作用,盡管每周有4億人使用ChatGPT,但大多數(shù)人在日常生活中接觸到的AI,依然只是個(gè)煩人的存在。

但凡看到AI生成的低質(zhì)量?jī)?nèi)容充斥著社交媒體動(dòng)態(tài),或者與笨拙的客服機(jī)器人打過(guò)交道,就能理解他們的想法:「這玩意兒就要統(tǒng)治世界了?

曾經(jīng),Keinv也對(duì)這種想法嗤之以鼻。但后來(lái),他意識(shí)到自己錯(cuò)了。

有幾件事讓他開(kāi)始更加嚴(yán)肅地看待AI的進(jìn)步。

Hinton奧特曼AI大佬拉響警報(bào)

當(dāng)今AI行業(yè)最令人不安的一點(diǎn)是,那些最接近這項(xiàng)技術(shù)的人——領(lǐng)先AI實(shí)驗(yàn)室的員工和高管們——往往也是對(duì)AI進(jìn)步速度最感到擔(dān)憂的人。

這種情況,相當(dāng)罕見(jiàn)。

回想2010年,當(dāng)Kevin報(bào)道社交媒體崛起時(shí),Twitter、Foursquare或Pinterest的內(nèi)部人士并不會(huì)警告他們的應(yīng)用可能引發(fā)社會(huì)混亂。

小扎也沒(méi)有測(cè)試Facebook,也沒(méi)有考慮它是否能被用于制造新型生物武器或發(fā)動(dòng)自主網(wǎng)絡(luò)攻擊的可能性。

但今天,那些掌握最前沿AI技術(shù)的人——那些正在研發(fā)強(qiáng)AI,并能接觸到更先進(jìn)系統(tǒng)的專(zhuān)家——卻在告訴大家,巨變即將到來(lái)。

各AI巨頭正在積極為AGI的到來(lái)做準(zhǔn)備,并研究AI可能帶來(lái)的潛在風(fēng)險(xiǎn),比如它們是否具備策劃陰謀或欺騙能力,以應(yīng)對(duì)它們變得更強(qiáng)大、更自主的未來(lái)。

OpenAI首席執(zhí)行官奧特曼曾寫(xiě)道:「通向AGI的系統(tǒng)已經(jīng)浮現(xiàn)。」

Google DeepMind首席執(zhí)行官Demis Hassabis表示,AGI可能還需要三到五年的時(shí)間。

Anthropic首席執(zhí)行官Dario Amodei(雖然他不喜歡使用「AGI」這個(gè)術(shù)語(yǔ),但認(rèn)可其基本概念)上個(gè)月說(shuō),他認(rèn)為距離出現(xiàn)「在幾乎所有領(lǐng)域都比人類(lèi)更聰明的AI系統(tǒng)」只有一到兩年的時(shí)間。

或許,應(yīng)該對(duì)這些預(yù)測(cè)持保留態(tài)度。

畢竟,AI公司的高管們有可能從夸大AGI的熱度中獲利,因此他們可能有動(dòng)力夸大進(jìn)展。

但許多獨(dú)立專(zhuān)家——包括全球最具影響力的AI研究者Geoffrey Hinton和 Yoshua Bengio,以及前拜登政府的首席AI專(zhuān)家Ben Buchanan——都在表達(dá)類(lèi)似的看法。

此外,還有許多知名經(jīng)濟(jì)學(xué)家、數(shù)學(xué)家和國(guó)家安全官員也發(fā)出了相似的警告。

當(dāng)然,也有一些專(zhuān)家對(duì)AGI即將到來(lái)表示懷疑。

但即使不考慮那些在AI公司工作、或在其中有直接利益的人,依然不應(yīng)輕易忽視短時(shí)間內(nèi)實(shí)現(xiàn)AGI的可能性 -- 有足夠多獨(dú)立且可信的聲音在提出這種觀點(diǎn)。

LLM進(jìn)化速度驚人,拿下奧賽級(jí)金牌

比專(zhuān)家觀點(diǎn)更具說(shuō)服力的,是AI系統(tǒng)正在以驚人的速度變得更強(qiáng)大。

2022年,當(dāng)OpenAI發(fā)布ChatGPT時(shí),主流AI模型仍然難以處理基礎(chǔ)數(shù)學(xué)運(yùn)算,在復(fù)雜推理問(wèn)題上常常失敗,并且經(jīng)常產(chǎn)生「幻覺(jué)」。

在特定提示下,當(dāng)時(shí)的聊天機(jī)器人確實(shí)能表現(xiàn)出色,但你絕不會(huì)把它們用于任何至關(guān)重要的任務(wù)。

而今天的AI模型,已經(jīng)進(jìn)步了許多。

現(xiàn)在,專(zhuān)訓(xùn)的AI模型在IMO中能達(dá)到獎(jiǎng)牌級(jí)的水平,而通用模型在解決復(fù)雜問(wèn)題上的能力提升得如此之快,以至于不得不設(shè)計(jì)更難的新測(cè)試來(lái)衡量它們的能力。

盡管幻覺(jué)和事實(shí)錯(cuò)誤仍然存在,但新一代模型上已經(jīng)變得少了許多。

如今,許多企業(yè)已經(jīng)信任AI模型,并將其深度集成到核心業(yè)務(wù)和面向客戶(hù)的功能中。

AI的進(jìn)步,一部分是Scaling law的結(jié)果。更大的模型,結(jié)合更多的數(shù)據(jù)和更強(qiáng)的計(jì)算能力,通常能帶來(lái)更好的效果。

當(dāng)前領(lǐng)先的AI模型,規(guī)模已遠(yuǎn)超前幾代產(chǎn)品。

但這也離不開(kāi)近年來(lái)AI研究的突破——尤其是「推理」模型的誕生。這類(lèi)模型在生成回答前會(huì)額外進(jìn)行一步計(jì)算,從而提升理解和邏輯推理能力,使AI的表現(xiàn)更加可靠。

推理模型比如OpenAI o1和DeepSeek R1,專(zhuān)門(mén)訓(xùn)練來(lái)解決復(fù)雜問(wèn)題,并采用強(qiáng)化學(xué)習(xí)進(jìn)行構(gòu)建。

這種技術(shù)最早被用于訓(xùn)練AI在圍棋上達(dá)到超越人類(lèi)的水平。而如今,這些模型正在攻克以往AI難以解決的難題。

例如GPT-4o在AIME 2024中得分僅為9%,而幾個(gè)月后發(fā)布的o1在同一測(cè)試中,拿下74%高分。

這表明,推理模型的能力遠(yuǎn)超傳統(tǒng)AI模型。

AI寫(xiě)95%代碼,搶攻白領(lǐng)地盤(pán)

隨著這些工具的進(jìn)步,AI正變得越來(lái)越適用于各類(lèi)白領(lǐng)知識(shí)型工作。

Kevin的同事Ezra Klein最近寫(xiě)道,ChatGPT的Deep Research(一種高級(jí)分析功能)所生成的報(bào)告,其質(zhì)量至少能達(dá)到他合作過(guò)的研究人員的中等水平。

在Kevin的工作中,他也發(fā)現(xiàn)了許多AI工具的實(shí)際用途。

Kevin不會(huì)用AI來(lái)寫(xiě)專(zhuān)欄,但會(huì)用它做很多其他事情,比如:

準(zhǔn)備采訪

總結(jié)研究論文

開(kāi)發(fā)個(gè)性化應(yīng)用來(lái)幫助處理行政事務(wù)

幾年前,這些事情幾乎是不可能做到的。

而現(xiàn)在,Kevin表示很難相信任何一個(gè)經(jīng)常在嚴(yán)肅工作場(chǎng)景中使用AI的人,會(huì)得出「AI進(jìn)步已經(jīng)停滯」的結(jié)論。

如果真的想了解AI最近的進(jìn)步有多大,去問(wèn)問(wèn)程序員就知道了。

一兩年前,雖然已經(jīng)有AI編程工具,但它們的作用更多是加速人類(lèi)程序員的工作,而不是取代他們。

而如今,許多軟件工程師告訴Kevin,AI已經(jīng)承擔(dān)了大部分實(shí)際編碼工作,而他們的角色越來(lái)越像是監(jiān)督AI系統(tǒng)。

創(chuàng)業(yè)加速器Y Combinator的合伙人Jared Friedman,最近表示,該機(jī)構(gòu)當(dāng)前孵化的初創(chuàng)公司中,有四分之一幾乎完全依賴(lài)AI編寫(xiě)代碼。Friedman說(shuō)道:

一年前,他們還會(huì)從零開(kāi)始構(gòu)建產(chǎn)品,但現(xiàn)在95%的代碼都是AI寫(xiě)的。

寧可準(zhǔn)備過(guò)度,也不能毫無(wú)準(zhǔn)備

出于認(rèn)知上的謙遜,Kevin必須承認(rèn),自己和許多人的時(shí)間預(yù)測(cè)可能是錯(cuò)誤的。

「也許AI的進(jìn)步,會(huì)遇到我意想不到的瓶頸」。

比如能源短缺,導(dǎo)致人工智能公司無(wú)法繼續(xù)擴(kuò)建數(shù)據(jù)中心;或者高性能芯片的供應(yīng)受限,影響AI模型的訓(xùn)練。

也許當(dāng)前的模型架構(gòu)和訓(xùn)練方法并不足以真正實(shí)現(xiàn)AGI,還需要更多技術(shù)突破。

但即使AGI比他預(yù)期的晚10年到來(lái)——不是2026年,而是2036年,他依然認(rèn)為,人類(lèi)應(yīng)該從現(xiàn)在開(kāi)始做好準(zhǔn)備。

無(wú)論如何,都應(yīng)該要做的事情:

更新能源基礎(chǔ)設(shè)施;

加強(qiáng)網(wǎng)絡(luò)安全防御;

加快AI設(shè)計(jì)藥物的審批流程;

制定法規(guī)以防止最嚴(yán)重的AI危害;

在學(xué)校教授AI基礎(chǔ)知識(shí)并將教育重點(diǎn)放在社交與情感發(fā)展而非即將過(guò)時(shí)的技術(shù)技能上。

無(wú)論是否存在AGI,這些建議都是明智之舉。

一些科技領(lǐng)袖擔(dān)心,對(duì)AGI的過(guò)早擔(dān)憂會(huì)導(dǎo)致對(duì)AI的過(guò)度監(jiān)管。

然而,特朗普政府已經(jīng)表明其意圖是加速AI的發(fā)展,而非減緩它。

而且投入到下一代AI模型研發(fā)的資金數(shù)額高達(dá)數(shù)百億美元,并且還在不斷增加——

因此領(lǐng)先的AI公司自愿放緩腳步的可能性似乎不大。

與準(zhǔn)備過(guò)度相比,更大的風(fēng)險(xiǎn)在于大多數(shù)人可能直到強(qiáng)大的AI直接沖擊他們的生活——如失業(yè)、陷入騙局或受到傷害時(shí),才意識(shí)到它的存在。

這正是社交媒體時(shí)代發(fā)生的情況,美國(guó)在Facebook和Twitter等工具變得「大而不倒」(too big to fall)之前,沒(méi)有意識(shí)到它們可能帶來(lái)風(fēng)險(xiǎn)。

這就是為什么即使我們不確定AGI何時(shí)到來(lái)或確切的形式是什么,他也主張現(xiàn)在就認(rèn)真對(duì)待AGI的可能性。

如果我們處于否認(rèn)狀態(tài)——或者僅僅是不給予足夠的關(guān)注——我們就可能錯(cuò)過(guò)在最關(guān)鍵時(shí)刻塑造這項(xiàng)技術(shù)的機(jī)會(huì)。

面對(duì)即將到來(lái)的巨大變革,我們需要保持警覺(jué)并積極應(yīng)對(duì),以便在未來(lái)能夠更好地利用這一技術(shù)進(jìn)步。

網(wǎng)友熱議AGI

網(wǎng)友Tommy. T在文章下發(fā)文稱(chēng),Roose的觀察非常深刻,強(qiáng)AI確實(shí)已經(jīng)近在眼前。

盡管人們對(duì)人類(lèi)能否駕馭AGI感到憂慮,Tommy卻認(rèn)為,只要我們理性且謹(jǐn)慎地去面對(duì),這個(gè)技術(shù)將能為我們帶來(lái)巨大的好處。

他表示,我們不必害怕人類(lèi)對(duì)智慧的「壟斷」會(huì)被AI打破,相反,我們應(yīng)該把AI當(dāng)作伙伴,發(fā)揮它的能力,來(lái)補(bǔ)充人類(lèi)的創(chuàng)造力、同理心和道德判斷力。

AGI可以強(qiáng)化我們的優(yōu)勢(shì),幫助解決醫(yī)療創(chuàng)新、教育公平和環(huán)境可持續(xù)性等重大問(wèn)題,為人類(lèi)打開(kāi)前所未有的發(fā)展機(jī)會(huì)。

要做到這些,我們必須積極做好準(zhǔn)備。

需要大量投入于道德標(biāo)準(zhǔn)建設(shè)、公開(kāi)透明的使用規(guī)則,以及確保公平普惠,讓強(qiáng)大的AI技術(shù)造福全人類(lèi),而不僅僅是少數(shù)特權(quán)人群。

我們的目標(biāo)應(yīng)當(dāng)是與AI共同成長(zhǎng)——通過(guò)清醒的樂(lè)觀態(tài)度和集體的責(zé)任意識(shí),攜手共進(jìn)。強(qiáng)AI時(shí)代的到來(lái)并不可怕。只要我們選擇合作、創(chuàng)新與審慎管理,這一時(shí)代就能成為人類(lèi)歷史的一個(gè)轉(zhuǎn)折點(diǎn)。

沃頓商學(xué)院研究AI、創(chuàng)新與創(chuàng)業(yè)公司的Ethan Mollick教授也發(fā)帖評(píng)論說(shuō),「我認(rèn)為現(xiàn)在正是開(kāi)始為AGI做準(zhǔn)備的最佳時(shí)機(jī)。」

他認(rèn)為,越來(lái)越多來(lái)自AI行業(yè)外的聰明觀察者,例如kevin Roose和Ezra Klein,開(kāi)始頻繁地發(fā)出類(lèi)似的警告。

「忽視他們可能是正確的,將是一個(gè)真正的錯(cuò)誤!筂ollick教授說(shuō)。

本文來(lái)源:新智元

新智元

網(wǎng)友評(píng)論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來(lái)
  • 二維碼 回到頂部