一覺醒來,離AGI又近了一步。 紐約時報專欄作家Kevin Roose,發(fā)帖表示自己被AGI「洗腦」了,現(xiàn)在對AGI深有感觸。 強人工智能即將到來,但人類尚未做好準備。 不論是樂觀主義者,還是悲觀主義者,Kevin Roose提出了邁向AGI進展的三個論點。 他相信,在過去的幾年里,AI系統(tǒng)已經(jīng)在多個領域開始超越人類并且AI每天都更聰明。 而且很快——可能在2026年或2027年,但也可能就在今年——AI公司將會宣稱他們已經(jīng)創(chuàng)造了AGI。 這不是漸進式的改進,而是顛覆性的飛躍。 為AGI做準備,最佳時機就是現(xiàn)在 AGI,通常被定義為——能夠完成幾乎所有人類可以執(zhí)行的認知任務的通用型AI系統(tǒng)。 Kevin Roose相信,那些堅稱所有進展只是「煙霧彈」,并否認AGI可能性的頑固AI懷疑論者,不僅在觀點上是錯誤的,而且還給人們一種虛假的安全感。 無論你認為AGI對人類來說是好事還是壞事——坦白講,現(xiàn)在下結論還為時尚早——它的到來提出了重要的經(jīng)濟、政治和技術問題,而我們目前還沒有找到答案。 Kevin認為,為AGI做準備的最佳時機,就是現(xiàn)在。 這一切,聽起來可能有些瘋狂。 但Kevin并不是滿懷幻想的未來主義者,也不是炒作AI投資組合的投資人,更沒有吃了太多「毒蘑菇」然后看完了《終結者2》。 作為一名記者, 他花了大量時間與構建強AI系統(tǒng)的工程師、為AI提供資金的投資人以及研究AI影響的學者交談。 而在這個過程中,他逐漸意識到,目前AI領域正在發(fā)生的事情,比大多數(shù)人所理解的要更重大。 在AI初創(chuàng)公司云集的舊金山,人們談論著「感受AGI」。 而打造比人類更聰明的AI系統(tǒng),已經(jīng)成為硅谷巨頭的明確目標。 每周,從事AI研究的工程師和創(chuàng)業(yè)者告訴他,巨變——顛覆性的、前所未有的變革——已經(jīng)近在咫尺。 去年剛剛離開OpenAI、獨立的AI政策研究員Miles Brundage,認為AGI可能會在十年內(nèi)誕生。 在美國除了灣區(qū)之外,很少有人聽說過AGI,更別提為其到來做準備了。 而在媒體新聞業(yè)中,那些認真對待AI進展的記者,仍有可能被嘲笑為行業(yè)代言人的風險。 盡管如今AI系統(tǒng)已經(jīng)在諾貝爾獎級別的科研突破中發(fā)揮作用,盡管每周有4億人使用ChatGPT,但大多數(shù)人在日常生活中接觸到的AI,依然只是個煩人的存在。 但凡看到AI生成的低質量內(nèi)容充斥著社交媒體動態(tài),或者與笨拙的客服機器人打過交道,就能理解他們的想法:「這玩意兒就要統(tǒng)治世界了?」 曾經(jīng),Keinv也對這種想法嗤之以鼻。但后來,他意識到自己錯了。 有幾件事讓他開始更加嚴肅地看待AI的進步。 Hinton奧特曼AI大佬拉響警報 當今AI行業(yè)最令人不安的一點是,那些最接近這項技術的人——領先AI實驗室的員工和高管們——往往也是對AI進步速度最感到擔憂的人。 這種情況,相當罕見。 回想2010年,當Kevin報道社交媒體崛起時,Twitter、Foursquare或Pinterest的內(nèi)部人士并不會警告他們的應用可能引發(fā)社會混亂。 小扎也沒有測試Facebook,也沒有考慮它是否能被用于制造新型生物武器或發(fā)動自主網(wǎng)絡攻擊的可能性。 但今天,那些掌握最前沿AI技術的人——那些正在研發(fā)強AI,并能接觸到更先進系統(tǒng)的專家——卻在告訴大家,巨變即將到來。 各AI巨頭正在積極為AGI的到來做準備,并研究AI可能帶來的潛在風險,比如它們是否具備策劃陰謀或欺騙能力,以應對它們變得更強大、更自主的未來。 OpenAI首席執(zhí)行官奧特曼曾寫道:「通向AGI的系統(tǒng)已經(jīng)浮現(xiàn)! Google DeepMind首席執(zhí)行官Demis Hassabis表示,AGI可能還需要三到五年的時間。 Anthropic首席執(zhí)行官Dario Amodei(雖然他不喜歡使用「AGI」這個術語,但認可其基本概念)上個月說,他認為距離出現(xiàn)「在幾乎所有領域都比人類更聰明的AI系統(tǒng)」只有一到兩年的時間。 或許,應該對這些預測持保留態(tài)度。 畢竟,AI公司的高管們有可能從夸大AGI的熱度中獲利,因此他們可能有動力夸大進展。 但許多獨立專家——包括全球最具影響力的AI研究者Geoffrey Hinton和 Yoshua Bengio,以及前拜登政府的首席AI專家Ben Buchanan——都在表達類似的看法。 此外,還有許多知名經(jīng)濟學家、數(shù)學家和國家安全官員也發(fā)出了相似的警告。 當然,也有一些專家對AGI即將到來表示懷疑。 但即使不考慮那些在AI公司工作、或在其中有直接利益的人,依然不應輕易忽視短時間內(nèi)實現(xiàn)AGI的可能性 -- 有足夠多獨立且可信的聲音在提出這種觀點。 LLM進化速度驚人,拿下奧賽級金牌 比專家觀點更具說服力的,是AI系統(tǒng)正在以驚人的速度變得更強大。 2022年,當OpenAI發(fā)布ChatGPT時,主流AI模型仍然難以處理基礎數(shù)學運算,在復雜推理問題上常常失敗,并且經(jīng)常產(chǎn)生「幻覺」。 在特定提示下,當時的聊天機器人確實能表現(xiàn)出色,但你絕不會把它們用于任何至關重要的任務。 而今天的AI模型,已經(jīng)進步了許多。 現(xiàn)在,專訓的AI模型在IMO中能達到獎牌級的水平,而通用模型在解決復雜問題上的能力提升得如此之快,以至于不得不設計更難的新測試來衡量它們的能力。 盡管幻覺和事實錯誤仍然存在,但新一代模型上已經(jīng)變得少了許多。 如今,許多企業(yè)已經(jīng)信任AI模型,并將其深度集成到核心業(yè)務和面向客戶的功能中。 AI的進步,一部分是Scaling law的結果。更大的模型,結合更多的數(shù)據(jù)和更強的計算能力,通常能帶來更好的效果。 當前領先的AI模型,規(guī)模已遠超前幾代產(chǎn)品。 但這也離不開近年來AI研究的突破——尤其是「推理」模型的誕生。這類模型在生成回答前會額外進行一步計算,從而提升理解和邏輯推理能力,使AI的表現(xiàn)更加可靠。 推理模型比如OpenAI o1和DeepSeek R1,專門訓練來解決復雜問題,并采用強化學習進行構建。 這種技術最早被用于訓練AI在圍棋上達到超越人類的水平。而如今,這些模型正在攻克以往AI難以解決的難題。 例如GPT-4o在AIME 2024中得分僅為9%,而幾個月后發(fā)布的o1在同一測試中,拿下74%高分。 這表明,推理模型的能力遠超傳統(tǒng)AI模型。 AI寫95%代碼,搶攻白領地盤 隨著這些工具的進步,AI正變得越來越適用于各類白領知識型工作。 Kevin的同事Ezra Klein最近寫道,ChatGPT的Deep Research(一種高級分析功能)所生成的報告,其質量至少能達到他合作過的研究人員的中等水平。 在Kevin的工作中,他也發(fā)現(xiàn)了許多AI工具的實際用途。 Kevin不會用AI來寫專欄,但會用它做很多其他事情,比如: 準備采訪 總結研究論文 開發(fā)個性化應用來幫助處理行政事務 幾年前,這些事情幾乎是不可能做到的。 而現(xiàn)在,Kevin表示很難相信任何一個經(jīng)常在嚴肅工作場景中使用AI的人,會得出「AI進步已經(jīng)停滯」的結論。 如果真的想了解AI最近的進步有多大,去問問程序員就知道了。 一兩年前,雖然已經(jīng)有AI編程工具,但它們的作用更多是加速人類程序員的工作,而不是取代他們。 而如今,許多軟件工程師告訴Kevin,AI已經(jīng)承擔了大部分實際編碼工作,而他們的角色越來越像是監(jiān)督AI系統(tǒng)。 創(chuàng)業(yè)加速器Y Combinator的合伙人Jared Friedman,最近表示,該機構當前孵化的初創(chuàng)公司中,有四分之一幾乎完全依賴AI編寫代碼。Friedman說道: 一年前,他們還會從零開始構建產(chǎn)品,但現(xiàn)在95%的代碼都是AI寫的。 寧可準備過度,也不能毫無準備 出于認知上的謙遜,Kevin必須承認,自己和許多人的時間預測可能是錯誤的。 「也許AI的進步,會遇到我意想不到的瓶頸」。 比如能源短缺,導致人工智能公司無法繼續(xù)擴建數(shù)據(jù)中心;或者高性能芯片的供應受限,影響AI模型的訓練。 也許當前的模型架構和訓練方法并不足以真正實現(xiàn)AGI,還需要更多技術突破。 但即使AGI比他預期的晚10年到來——不是2026年,而是2036年,他依然認為,人類應該從現(xiàn)在開始做好準備。 無論如何,都應該要做的事情: 更新能源基礎設施; 加強網(wǎng)絡安全防御; 加快AI設計藥物的審批流程; 制定法規(guī)以防止最嚴重的AI危害; 在學校教授AI基礎知識并將教育重點放在社交與情感發(fā)展而非即將過時的技術技能上。 無論是否存在AGI,這些建議都是明智之舉。 一些科技領袖擔心,對AGI的過早擔憂會導致對AI的過度監(jiān)管。 然而,特朗普政府已經(jīng)表明其意圖是加速AI的發(fā)展,而非減緩它。 而且投入到下一代AI模型研發(fā)的資金數(shù)額高達數(shù)百億美元,并且還在不斷增加—— 因此領先的AI公司自愿放緩腳步的可能性似乎不大。 與準備過度相比,更大的風險在于大多數(shù)人可能直到強大的AI直接沖擊他們的生活——如失業(yè)、陷入騙局或受到傷害時,才意識到它的存在。 這正是社交媒體時代發(fā)生的情況,美國在Facebook和Twitter等工具變得「大而不倒」(too big to fall)之前,沒有意識到它們可能帶來風險。 這就是為什么即使我們不確定AGI何時到來或確切的形式是什么,他也主張現(xiàn)在就認真對待AGI的可能性。 如果我們處于否認狀態(tài)——或者僅僅是不給予足夠的關注——我們就可能錯過在最關鍵時刻塑造這項技術的機會。 面對即將到來的巨大變革,我們需要保持警覺并積極應對,以便在未來能夠更好地利用這一技術進步。 網(wǎng)友熱議AGI 網(wǎng)友Tommy. T在文章下發(fā)文稱,Roose的觀察非常深刻,強AI確實已經(jīng)近在眼前。 盡管人們對人類能否駕馭AGI感到憂慮,Tommy卻認為,只要我們理性且謹慎地去面對,這個技術將能為我們帶來巨大的好處。 他表示,我們不必害怕人類對智慧的「壟斷」會被AI打破,相反,我們應該把AI當作伙伴,發(fā)揮它的能力,來補充人類的創(chuàng)造力、同理心和道德判斷力。 AGI可以強化我們的優(yōu)勢,幫助解決醫(yī)療創(chuàng)新、教育公平和環(huán)境可持續(xù)性等重大問題,為人類打開前所未有的發(fā)展機會。 要做到這些,我們必須積極做好準備。 需要大量投入于道德標準建設、公開透明的使用規(guī)則,以及確保公平普惠,讓強大的AI技術造福全人類,而不僅僅是少數(shù)特權人群。 我們的目標應當是與AI共同成長——通過清醒的樂觀態(tài)度和集體的責任意識,攜手共進。強AI時代的到來并不可怕。只要我們選擇合作、創(chuàng)新與審慎管理,這一時代就能成為人類歷史的一個轉折點。 沃頓商學院研究AI、創(chuàng)新與創(chuàng)業(yè)公司的Ethan Mollick教授也發(fā)帖評論說,「我認為現(xiàn)在正是開始為AGI做準備的最佳時機! 他認為,越來越多來自AI行業(yè)外的聰明觀察者,例如kevin Roose和Ezra Klein,開始頻繁地發(fā)出類似的警告。 「忽視他們可能是正確的,將是一個真正的錯誤!筂ollick教授說。 本文來源:新智元 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選