硅谷又搞幺蛾子了!加州最近拋出的一枚重磅炸彈——「SB-1047」AI法案,瞬間點燃了整個科技圈的怒火。這場旨在規(guī)范AI發(fā)展的立法行動,卻意外成為了一場關(guān)乎創(chuàng)新與管控的世紀之戰(zhàn)。 從Meta首席AI科學(xué)家楊立昆到AI教父級人物吳恩達,硅谷的科技大佬們紛紛登上社交媒體的“戰(zhàn)車”,高舉反對大旗。 參議員斯科特·維納倒是一副胸有成竹的樣子。在他看來,SB-1047就是為了給那些AI巨頭們戴上“緊箍咒”。但這個“緊箍咒”究竟是保護未來的明智之舉,還是會成為壓垮創(chuàng)新駱駝的最后一根稻草? 有人“拱火”,有人“潑水” ,這場關(guān)于安全與創(chuàng)新的拉鋸戰(zhàn),正牽動著整個硅谷的神經(jīng)。 SB-1047好心辦壞事? 多位科技圈大佬在社交媒體平臺上轉(zhuǎn)發(fā)“STOP SB-1047”的網(wǎng)站,呼吁人們反對該法案的通過。 STOP-SB 1047網(wǎng)頁截圖 隨著"STOP SB-1047"的呼聲在網(wǎng)絡(luò)上此起彼伏,這場辯論的焦點逐漸浮出水面:AI監(jiān)管的邊界到底在哪里? 在AI迅猛發(fā)展的同時,相關(guān)監(jiān)管也在跟進,SB-1047法案就是其一。 就像汽車上路前需要通過嚴格的安全測試,對AI產(chǎn)品也應(yīng)該提出同樣的要求。 SB-1047法案中提出的要求是開發(fā)者在訓(xùn)練人工智能模型之前做出一定的安全決定,遵守各種安全要求,并報告人工智能安全事件。并且,政府會設(shè)置專有部門監(jiān)督這些人工智能模型,并對違反該法案的行為實行民事處罰。 也就是說,AI公司發(fā)布技術(shù)之前必須進行嚴格的安全測試。一旦AI脫韁造成嚴重后果,公司將無法逃脫法律的“長臂”。 該法案的矛頭直指那些AI界的“巨無霸”——訓(xùn)練成本超過1億美元的大型模型。這些數(shù)字時代的“龐然大物”智能驚人,但同時也潛藏著不可忽視的風(fēng)險。 法案試圖通過政府監(jiān)管這個“緊箍咒”,賦予相關(guān)部門審查、一鍵關(guān)停和罰款的“尚方寶劍”,以確保AI發(fā)展不會脫離正軌。 SB-1047賦予了政府介入的權(quán)力 法案的初稿一經(jīng)發(fā)布,連“AI三巨頭”中的兩位——杰弗里·辛頓和約書亞·本吉奧都點頭稱是。但為何第三位楊立昆卻如此抵制呢? 其實,以楊立昆為首的“反對派”主要聚焦在法案中的 “連坐條例”——如果這些模型被他人惡意使用時,該法案要求AI開發(fā)者對其開發(fā)的模型承擔民事甚至刑事責(zé)任。 眾所周知,AI發(fā)展的根基就是技術(shù)開源的。而這個“連坐”條例會讓技術(shù)開發(fā)者因他人的不當使用而自身陷入法律泥潭。這無疑會推動AI向閉源方向發(fā)展,給開源創(chuàng)新蒙上一層陰影。
SB-1047條例中關(guān)于刑事界定部分 由于加州特殊的地理位置,硅谷匯聚了斯坦福、加州理工等頂尖學(xué)府,以及谷歌、蘋果、OpenAI、Meta等科技巨擘。SB-1047的影響恐怕會如蝴蝶效應(yīng)般擴散。 面對這場可能改變游戲規(guī)則的立法風(fēng)暴,楊立昆在社交媒體上發(fā)出警示:“加州科技產(chǎn)業(yè)的末日要來了?” 楊立昆X社交媒體截圖 創(chuàng)新與管控的“拉鋸戰(zhàn)” 硅谷之所以能成為全球科技巨頭趨之若鶩的圣地,就是因為其鼓勵創(chuàng)新、開放合作的文化DNA,以及科技巨頭盤踞的產(chǎn)業(yè)優(yōu)勢。 楊立昆等人則認為,SB-1047法案一旦通過,等于是“逼迫”科技巨頭出走,尋找更加寬松自由的發(fā)展環(huán)境。 一邊是保障安全的善意,一邊卻可能成為創(chuàng)新的絆腳石。這場監(jiān)管風(fēng)暴是否會讓加州在全球AI競賽中失去先機? 硅谷不再是科技中心的論調(diào)開始在空氣中彌漫。 法案中的嚴格條例和連帶責(zé)任條款,宛如“人在家中坐,鍋從天上來”,尤其讓初創(chuàng)公司如履薄冰。 在只有大公司才能承擔的合規(guī)成本面前,初創(chuàng)公司更有可能“卷鋪蓋”逃離加州。科技鴻溝也會越來越大,而硅谷也將會永遠失去這些創(chuàng)新的“火種”。 法案的制定者主要是出于對AI大模型潛在危害的預(yù)警,卻忽視了它帶來的福利。這種處理方式可能導(dǎo)致技術(shù)創(chuàng)新的“緩慢加載”甚至“死機”,從而影響整個AI生態(tài)系統(tǒng)的“版本迭代”。 社交媒體X上網(wǎng)友的擔憂評論 與楊立昆的擔憂同理,許多網(wǎng)友認為監(jiān)管措施本身也可能成為潘多拉的魔盒。例如法案中提到的“一鍵關(guān)閉”功能,就像核武器的按鈕一樣危險。如果被惡意觸發(fā),后果不敢設(shè)想。 AI大師吳恩達的態(tài)度則相對緩和。他提出法案應(yīng)重新思考監(jiān)管對象,即應(yīng)該監(jiān)管AI的具體應(yīng)用,而非技術(shù)本身。這種「技術(shù)中立論」得到了不少支持者的呼應(yīng)。他們認為,應(yīng)該給AI戴上行為準則的項圈,而不是給它套上發(fā)展的枷鎖。 支持的一方則表示公眾對AI的擔憂并非空穴來風(fēng)。近半數(shù)機器學(xué)習(xí)研究人員都認為,強大的AI系統(tǒng)可能釀成災(zāi)難。 AI Impacts研究論文表明半數(shù)研究院對AI的擔憂 而美國現(xiàn)行法律對AI導(dǎo)致的大規(guī)模傷亡事件責(zé)任界定模糊不清,更是火上澆油。不少網(wǎng)友呼吁通過法律來馴服科技巨頭的“野蠻生長”,反映了公眾對AI監(jiān)管的迫切期望。 SB-1047法案的爭論在硅谷圈還未結(jié)束,但對AI發(fā)展的態(tài)度幾乎是全球統(tǒng)一:既渴望創(chuàng)新,又擔憂風(fēng)險。 究竟誰能為AI安全負責(zé)? 面對AI技術(shù)的快速發(fā)展,全球各地都在摸著石頭過河,走自己的路。 企業(yè)自省的戰(zhàn)線上,OpenAI推出的CriticGPT模型堪稱一記妙招。這個“AI查AI”的創(chuàng)新方案,猶如給ChatGPT配了一個智能糾錯員,展現(xiàn)了科技公司自我約束的決心。 OpenAI CriticGPT演示截圖 而在政府監(jiān)管層面,不同國家和地區(qū)的側(cè)重點均于本國國情相結(jié)合。 歐盟率先打造了全球首部全面監(jiān)管AI的法律武器——《人工智能法案》。這部法案巧妙地借鑒了核事故分級的思路,對AI應(yīng)用進行風(fēng)險級別分類。這種“基于風(fēng)險”的精準施策,堪稱在創(chuàng)新與安全間架設(shè)的一座巧妙橋梁。 歐盟《人工智能法案》官網(wǎng)截圖 日本則憑借其豐富的官產(chǎn)學(xué)合作經(jīng)驗,選擇從個人信息和數(shù)據(jù)保護入手,通過明確數(shù)據(jù)主體的權(quán)責(zé)劃分,推動政府和企業(yè)形成協(xié)同研發(fā)網(wǎng)絡(luò),構(gòu)建有利于AI安全發(fā)展的生態(tài)系統(tǒng)。 德國則依托其工業(yè)資源優(yōu)勢,將AI安全立法與“工業(yè)4.0”相融合成“德國特色”,重點關(guān)注自動駕駛、智能醫(yī)療等直接影響經(jīng)濟和生活質(zhì)量的領(lǐng)域。 從加州的SB-1047法案到歐盟的《人工智能法案》,從日本的數(shù)據(jù)保護策略到德國的工業(yè)融合方案,每種監(jiān)管思路都反映了不同的價值觀和社會訴求。 面對AI這個既充滿希望又潛藏風(fēng)險的“雙刃劍”,如何構(gòu)建一個既能激發(fā)創(chuàng)新活力,又能確保安全的監(jiān)管框架,仍然是一個懸而未決的問題。 針對加州新法案SB-1047,還是個未知數(shù),對此你怎么看? |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選