OpenAI的離職潮,已經(jīng)像滾雪球一樣,根本停不下來了。 Ilya的離去,仿佛是壓彎駱駝的最后一根稻草。 由Ilya領(lǐng)銜的超級對齊團隊,是防止AGI失控、保護人類的最后一道屏障。 然而Altman統(tǒng)治下的OpenAI,把光鮮的產(chǎn)品置于安全之前,讓超級對齊團隊在計算資源方面捉襟見肘,完成關(guān)鍵研究變得越來越困難。 不斷離職的超級對齊團隊員工紛紛表示:我們已經(jīng)徹底失去信心,無法再對OpenAI在AGI時代的行為負(fù)責(zé)了。 昨天曝出的股權(quán)協(xié)議原件,更是讓Altman言行不一的面目暴露出來——文件上明明有Altman的簽名,他卻極力否認(rèn)自己對此事知情。 在OpenAI這個可能影響全人類命運的機構(gòu)中,究竟發(fā)生了什么?? 現(xiàn)在,已經(jīng)有憤怒的網(wǎng)友發(fā)帖,歷數(shù)了OpenAI的七大罪狀:無視AGI風(fēng)險、逼迫員工放棄股權(quán)卻裝失憶、反對開源、跟蹤GPU、泄露隱私、和軍方合作等等……樁樁件件都附有參考鏈接。 又一對齊員工離職 OpenAI的超級對齊團隊,現(xiàn)在就像多米諾骨牌一樣。 上周,首席科學(xué)家兼聯(lián)合創(chuàng)始人Ilya Sutskever宣布辭職,緊接著高管Jan Leike也辭職了。 Leike指責(zé)OpenAI把「光鮮的產(chǎn)品」放在安全之前,并表示超級對齊團隊「在計算資源方面捉襟見肘」,完成這項關(guān)鍵研究「變得越來越困難」。 這周和上周的離職事件,緊隨另外兩名安全研究員Daniel Kokotajlo和William Saunders,也出于類似的原因離職。 如今, 又有一名團隊成員高調(diào)宣布了自己的離開。 “在得知Ilya Sutskever和Jan Leike的消息前幾個小時,我就已經(jīng)選擇了離職。 我們需要做更多的工作來改進決策過程、問責(zé)制、透明度、文檔記錄、政策執(zhí)行、使用自身技術(shù)時的謹(jǐn)慎態(tài)度,以及減少對不平等、權(quán)利和環(huán)境影響的措施。 這些擔(dān)憂對于現(xiàn)在的社會來說非常重要。它們影響著未來發(fā)展的方向,以及由誰來引領(lǐng)。我想強調(diào)的是,不管是我們內(nèi)部的還是來自其他人的擔(dān)憂不應(yīng)該被誤解為狹隘的、推測性的或不相關(guān)的。它們不是。 科技公司往往會通過在提出質(zhì)疑或挑戰(zhàn)其權(quán)力的人之間制造分歧,來削弱那些試圖對其進行問責(zé)的人。 我很感激自己有能力和支持去做這件事,這在很大程度上要歸功于Daniel Kokotajlo給的勇氣。我也明白,在整個行業(yè)中,還有很多人無法做到這一點。” OpenAI仍在開展許多重要工作,包括擴大訪問權(quán)限、準(zhǔn)備框架開發(fā)、增強信心的措施,以及解決我之前提到的擔(dān)憂。我仍然對這些工作及其成功充滿期待和投入。 歷數(shù)OpenAI「七宗罪」 Ⅰ 無視AGI風(fēng)險,超級對齊分崩離析至此,我們已經(jīng)無法再用玩梗蒙蔽自己了。. Ilya等安全團隊的人員離去,大概率跟AGI或者GPT-5都無關(guān),而是被逼得走投無路。 自從OpenAI發(fā)生第一輪宮斗、Sam Altman被罷免以來,整個OpenAI的情緒就不對勁了。 顯然,Altman在合作伙伴關(guān)系和產(chǎn)品重點方面的發(fā)展方向,已經(jīng)超出了大多數(shù)人能接受的程度。 他的危險面目,隨著時間線的推移,也越來越清晰地暴露出來。 Ⅱ 跟蹤GPU,隨時撤銷GPU許可證 而且,OpenAI最近公布的AI治理計劃,也掀起了軒然大波。 OpenAI提出,將加密保護擴展到硬件層,實現(xiàn)以下屬性——
這些內(nèi)容,無疑讓人恐慌。 比如第一句:GPU可以通過加密方式驗證其真實性和完整性。 這也就意味著,如果我們從英偉達(dá)買一塊GPU,它會像DRM一樣進行簽名,從而被批準(zhǔn)運行和加速AI模型。 假如一個小公司來購買硬件,現(xiàn)在就需要經(jīng)過額外的層層審批,才能把自己的硬件推向市場,這無疑很可怕。 大概沒有多少人希望自己的GPU是簽名的,大家都會希望使用匿名的GPU。 第二條也很詭異,必須每個硬件上都有簽名,才能允許我們運行AI,這簡直是一件荒謬的事。因為如果上面有簽名,他們也就可以撤銷簽名,誰有權(quán)決定呢? 第三條也是如此,模型權(quán)重只能由屬于授權(quán)方的GPU解密,這個權(quán)力屬于誰? 而其中這句話,也顯示出OpenAI的重點在于保護模型權(quán)重,而非開源,或開放權(quán)重,這個觀點已經(jīng)與開源AI的大力支持者大相徑庭了。 一名網(wǎng)友銳評道:這些關(guān)于安全和保障的很多想法,讓我摸不著頭腦,很多內(nèi)容顯示出,OpenAI正在全力以赴地關(guān)注閉源架構(gòu),這讓我更感激Meta這樣的開源公司了。 Ⅲ 簽字逼迫員工放棄股權(quán),事后裝失憶前幾天此消息曝出:如果OpenAI員工在離職時拒絕簽署要求嚴(yán)苛的協(xié)議,無法保證永不批評OpenAI,那他們可能就會失去已有的OpenAI股權(quán)。 瞬間讓科技圈炸鍋。面對群情激憤的聲討,Altman緊急發(fā)布道歉聲明,表示自己從不知道OpenAI有威脅股權(quán)的條款,以后也不會這樣做。 然而他隨后就被打臉了,外媒扒出了更多內(nèi)部協(xié)議。 這些文件顯示,OpenAI幾乎擁有所有權(quán)利,可以任意將股權(quán)從前員工那里收回,或者阻止他們出售股權(quán)。 簽署這些文件的,正是Sam Altman,簽署日期為2023年4月10日。 隨后,更多霸王條款曝出。比如OpenAI發(fā)給離職員工一份冗長且復(fù)雜的終止文件,需要在七天之內(nèi)簽署完畢。 這意味著,前員工僅有一周的時間,去決定是否接受OpenAI的「封口費」,否則就會失去數(shù)百萬美元股權(quán)。 而且,當(dāng)前員工要求額外2-3周的時間尋求法律援助并審查文件時,卻遭到了OpenAI的強烈反對。 「The General Release and Separation Agreement」(概括性索償棄權(quán)書和離職協(xié)議)需要你在7天內(nèi)簽署。我們希望確保你明白,如果你不簽署,這可能會影響你的股權(quán)。這對每個人都是一樣的,我們只是按規(guī)章辦事」。 對此,加州的就業(yè)律師Chambord Benton-Hayes表示,「一家企業(yè)威脅收回已歸屬的股權(quán)是極其惡劣和不尋常的」。 然而,OpenAI大多數(shù)前員工,卻對這樣的霸王條款屈服了。 而整件事最荒謬的,還是以Altman為首的OpenAI高管事后堂而皇之的裝傻。 Ⅳ 和News Corp合作,ChatGPT中也會有廣告了昨天,在一片亂中,OpenAI依然官宣了和新聞集團News Corp的合作,并將之成為「里程碑意義的多年全球合作伙伴關(guān)系」。 根據(jù)協(xié)議內(nèi)容,News Corp的新聞內(nèi)容都會引入OpenAI。 OpenAI有權(quán)顯示相關(guān)媒體報頭的內(nèi)容,用來回答用戶問題,目的是「讓人們根據(jù)可靠的消息和新聞來源,做出明智的選擇」。 News Corp旗下的出版物,包括《華爾街日報》、《巴倫周刊》、《MarketWatch》、《投資者商業(yè)日報》、《FN》、《紐約郵報》、《泰晤士報》、《星期日泰晤士報》、《太陽報》等等。 對此,網(wǎng)友評價說:看這個名單就知道,OpenAI選擇了非常糟糕的合作方。 這些媒體一向把右翼宣傳作為商業(yè)模式,引起政治討論,使用一切必要的手段來推動敘事,甚至曾通過?怂剐侣劮裾J(rèn)2022年的總統(tǒng)選舉。 甚至News Corp還曾卷入這樣一起丑聞,涉嫌侵入600多人的手機,來獲取情報。 從此,我們使用OpenAI的產(chǎn)品時,無可避免地會受到某些傾向的影響。 而且,以后AI聊天機器人的世界,也將到處充斥著廣告。 不久前一份泄露的文件顯示,OpenAI計劃在GPT聊天中,納入品牌優(yōu)先權(quán)。 根據(jù)文件,凡是加入該計劃的公司,都會在ChatGPT等產(chǎn)品的聊天對話中獲得優(yōu)先權(quán),品牌能夠露出得更多,鏈接中也會更強調(diào)它們的內(nèi)容。 而且通過PPP,OpenAI甚至還會向出版商提供許可的財務(wù)條款。 獲得更豐富產(chǎn)品表達(dá)的公司,將擁有品牌懸停鏈接、錨定鏈接和內(nèi)嵌處理。 懸停處理中,OpenAI會在搜索查詢的響應(yīng)中,超鏈接關(guān)鍵字。這些鏈接會顯示為藍(lán)色文本,鼠標(biāo)懸停在上面時,會顯示可單擊的選項卡。 在錨點處理中,ChatGPT對用戶查詢響應(yīng)的下方,會出現(xiàn)一個可點擊的品牌化按鈕。 內(nèi)嵌產(chǎn)品則會在ChatGPT響應(yīng)的文本中插入引文,字體更大,并且包含可點擊的品牌鏈接。 總之,ChatGPT從此會變成被商業(yè)廣告操控的世界。 Ⅴ 和微軟一起反對開源開源和閉源之爭中,OpenAI已經(jīng)聯(lián)合微軟正式下場,試圖對政府施加影響了。 最近,由科技巨頭、初創(chuàng)公司和風(fēng)險投資家組成的聯(lián)盟,正在花費數(shù)百萬美元來說服華盛頓,讓他們相信對AI世界末日的擔(dān)憂被夸大了。 他們的行動已經(jīng)產(chǎn)生了影響。他們的影響力網(wǎng)絡(luò)在推動這樣一種觀點:與其說AI是一種生存威脅,不如說是一個重要的商業(yè)機會,絕不能讓嚴(yán)格的安全措施,把美國的AI優(yōu)勢拱手讓給他人。 華盛頓的游說格局,已成為一場由大量資金支持的、近乎哲學(xué)爭論的戰(zhàn)爭。 微軟和OpenAI這一派的觀點是,提倡嚴(yán)格的安全限制和許可要求。嚴(yán)格的限制,顯然對擁有最強大AI的公司是有利的。 而Meta、IBM等公司,更依賴于開源AI模型,而非OpenAI、谷歌等追求的閉源框架,因此他們力圖推動一種規(guī)則更少、更加開放的方法。 無論是IBM還是Meta,都在開源斗爭中投入了大量的游說資源。自從2023年中期的AI辯論爆發(fā)以來,IBM為游說華盛頓投入了400萬美元,Meta則花費了超過1700萬美元。 而OpenAI,當(dāng)然不希望這些開源既得利益者迎頭趕上。 Ⅵ 泄露隱私,讓人類過度依賴AI在上周的OpenAI大會上,技驚四座的GPT-4o所宣傳的重點,顯然被放在了情感依戀上。 然而,無論是開發(fā)高度情緒化的語音輸出,還是通過聲音讀取某人情緒健康的能力,無疑都是潛在的危險方向。 據(jù)說,Ilya是反對這一決定的。在他看來,除了學(xué)習(xí)說服之外,AI學(xué)習(xí)語音方式并沒有什么好處。 發(fā)布會上,GPT-4o加持的AI語音助手,更加情感豐富,現(xiàn)場展示的幽默和害羞等特質(zhì),讓它更像個人類。 與之相比,谷歌介紹Astra時,用的最多的詞就是「助理」,這就明確顯示了谷歌對于語音助手的定位。 顯然,在AI助手這方面,OpenAI的嘗試更大膽,谷歌則更謹(jǐn)慎。 谷歌的態(tài)度,此前也有跡可循。此前它就一直在有意遠(yuǎn)離「Her」型的AI。 上個月,Google DeepMind的研究人員發(fā)布了一篇論文,詳細(xì)闡述了擬人化人工智能的潛在弊端,稱這類助手可能會重新定義「人類」和「其他」之間的界限。 論文地址:https://arxiv.org/pdf/2404.14068 而這,就可能會導(dǎo)致一些危害。例如用戶會將重要的決策交給AI,向AI透露敏感信息,或者在情感上過度依賴AI等等。 這樣的結(jié)果,可能是災(zāi)難性的。畢竟,《Her》中描述的并不是一個happy ending,更像是一個反烏托邦的未來。 顯然,這個問題,并不在OpenAI的考慮范圍之內(nèi)。 Ⅶ 技術(shù)向軍方開放最后一件危險的事就是,今年OpenAI已經(jīng)悄悄刪除了針對「軍事和戰(zhàn)爭」使用ChatGPT的禁令,因此,軍方也可以使用ChatGPT技術(shù)了。 雖然目前看來,OpenAI提供的任何服務(wù)都無法用于直接殺人,比如操控?zé)o人機或發(fā)射導(dǎo)彈,但他們可以增強許多相關(guān)的任務(wù),比如寫代碼、處理采購訂單。 有證據(jù)表明,美國的軍事人員已經(jīng)在使用ChatGPT加快文書工作,美國國家地理空間情報局已經(jīng)公開考慮,使用ChatGPT來協(xié)助人類分析師。 要知道,OpenAI一直和主要國防承包商微軟合作密切,迄今為止,微軟已經(jīng)向OpenAI投入了130億美元的巨資。 在當(dāng)前的局勢下,全世界的軍隊都渴望用AI技術(shù)來武裝自己。 雖然LLM不可避免的幻覺,以及用ChatGPT分析機要信息或敏感數(shù)據(jù)可能會帶來安全風(fēng)險,但五角大樓的態(tài)度,仍然是渴望擁抱AI。 在11月的一次講話中,國防部副部長Kathleen Hicks表示,人工智能是「我和Lloyd Austin部長從第一天起,就一直在推動的以作戰(zhàn)人員為中心的創(chuàng)新的關(guān)鍵部分」。 老將出走,員工炮轟,接下來的OpenAI,會在「慣會說謊」的Sam Altman治下走向何方? 參考資料: https://www.reddit.com/r/singularity/comments/1cyn4yy/its_becoming_increasingly_clear_that_openai/ 本文來源:新智元
|
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選