Altman被驅逐背后:AI軍備競賽提速,硅谷已經把安全拋在腦后
專題:OpenAI管理層“地震”:CEO、總裁雙雙離職
來自:華爾街見聞
席卷周末OpenAI的“”風波,令全球AI行業(yè)目瞪口呆。
華爾街見聞此前文章提到,此次內斗的根源,可能在于AI監(jiān)管與商業(yè)化之間的矛盾——OpenAI首席科學家Ilya Sutskever無法接受CEO Sam Altman激進的商業(yè)化戰(zhàn)略,因此和其他董事聯(lián)手,趕走了Altman和公司總裁Greg Brockman。
但在商業(yè)化上不斷提速、把AI安全放在次要位置的,并不只有OpenAI,整個硅谷,都是如此。
野心與安全的矛盾
在Sam Altman被趕下臺之前,OpenAI在商業(yè)化上的野心和激進,已經讓OpenAI首席科學家Ilya Sutskever等人憂心忡忡。
媒體援引知情人士的分析指出,Altman和Sutskever的矛盾包括AI安全性、技術發(fā)展速度以及公司商業(yè)化等方面。Altman“路人皆知”的野心也可能造成了這一局面。
除了開發(fā)大模型,Altman還涉足硬件開發(fā)、AI芯片等眾多產業(yè)。此前有報道稱,Altman尋求向中東***財富基金融資數(shù)百億美元以創(chuàng)建一家AI芯片創(chuàng)業(yè)公司,與英偉達GPU競爭;Altman還在爭取軟銀孫正義的數(shù)十億美元投資和蘋果前設計主管Jony Ivy一同開發(fā)一款硬件設備;他還投資了前蘋果設計師Imran Chaudhri和Bethany Bongiorno成立的AI硬件公司Humane。
而且,近期多模態(tài)、GPTs等一系列重磅功能的飛速上線,也讓首席科學家Ilya Sutskeve感到不安。他認為,OpenAI需要更多的時間來弄清楚研究路徑,而不是急于匆忙部署產品。
因此,在11月17日的董事會議上,內斗爆發(fā)了。Ilya Sutskeve當場表示,公司不應該繼續(xù)籌集資金和擴大規(guī)模,Altman未經董事會同意就離開會場,隨后被直接解雇。
Sutskever傾向于把安全放在首位
相比Altman,Sutskever有著更加深厚的技術背景,是圖靈獎得主Geoffrey Hinton的同事、首個深度卷積網絡AlexNet的設計者之一。同樣,他也更加關注AI的潛在威脅。
在此前的公開演講和訪談中,Sutskever曾多次表示,他的主要工作不是開發(fā)GPT-5,而是弄清楚如何讓“超級智能”安全可控。
在OpenAI的8年歷史中,商業(yè)化與AI安全的矛盾并非第一次出現(xiàn)。2020年底,一部分員工由于在公司的商業(yè)戰(zhàn)略和技術發(fā)布速度上的分歧,從OpenAI分裂出去創(chuàng)立了自己的創(chuàng)業(yè)公司Anthropic。而為了確保OpenAI的技術開發(fā)不會受到財務激勵的影響,Anthropic組建了一個獨立的五人小組,可以雇傭和解雇公司的董事會。
多年來,AI從業(yè)者一直擔心更強大的模型可能被濫用,比如開發(fā)生物武器、生成有說服力的深度偽造或入侵關鍵基礎設施。一些人還認為這些系統(tǒng)最終可能會變得自主并以人類的代價失控。
隨著OpenAI開發(fā)出可以自動化寫作、編程和從零生成逼真圖像的突破性人工智能,公司的一些員工開始擔憂,一旦AI學會自我改進,之后會發(fā)生什么?
今年夏天公司成立了一個團隊,由Sutskever和‘alignment’研究員Jan Leike共同領導(AI alignment研究就是通過各種技術手段,使AI系統(tǒng)的目標與人類利益一致,防止AI系統(tǒng)做出危害人類的行為),致力于尋找技術解決方案,防止其AI系統(tǒng)失控。
在一篇博文中,OpenAI說它將專注五分之一的計算來解決“超級智能”的威脅,Sutskever和Leike指出,這“可能導致人類失去權力甚至滅絕”。
與Altman的野心與激進形成對比的是,Sutskever一直以來都非常關注安全,在7月的一次訪中,Sutskever說,他最擔心強大的通用AI在未來幾年的危險性,但希望未來AI技術可以幫助人類對自己進行監(jiān)管,可能解雇Altman本身就是這個“alignment”的例子。
他在公司內有許多追隨者。前員工將他描述為一位備受尊敬和親力親為的領導者,對指導這家創(chuàng)業(yè)公司的前沿技術至關重要。
硅谷風向變了,AI軍備競賽已經開始,安全退居次席
在技術和商業(yè)化上提速的不止OpenAI,整個硅谷都是如此。
此前有傳言稱,Meta已經解散了其2019年設立的負責任人工智能(RAI)團隊。
本周日,Meta已證實這一消息:RAI的確已經解散,大部分成員將轉到公司的AI產品團隊,其他人則將轉到AI基礎設施相關團隊任職。
Meta對此回應稱:
“公司將繼續(xù)優(yōu)先投資于安全、負責任的人工智能開發(fā)?!?/p>
Meta還表示,雖然公司正在拆分RAI團隊,但這些成員將繼續(xù)支持相關工作,確保公司負責任地開發(fā)和使用人工智能。
RAI的任務主要是識別AI訓練方法中存在的問題,包括公司的模型是否經過了充分多樣化的信息訓練,防止錯誤和幻覺。Meta社交平臺上的自動化系統(tǒng)已經導致了一些問題,Whats的AI表情包在特定提示下會生成有偏見的圖片,Instagram的算法之前被曝出會顯示兒童內容。
Meta經常強調其在AI研發(fā)上如何“負責任”,甚至還專門為此設立了一個頁面,列出了其“負責任的人工智能支柱”,包括問責制、透明度、安全性、隱私等。
結果現(xiàn)在,連“負責任”這個部門都沒有了。
更早之前,在3月份,有媒體報道稱微軟已經解散了其整個AI風險評估團隊。
據悉,這個團隊正式名稱為AI道德與社會團隊,其主要職能在于指導微軟在AI方面的創(chuàng)新,從而產生符合道德標準、負責任以及可持續(xù)的結果。最近,該團隊始終在努力評估微軟將OpenAI技術整合到其產品中可能存在的風險。
多位微軟離職和在職員工表示,此舉導致微軟將再也沒有專門的團隊來確保其AI原則與產品設計緊密結合,而目前該公司正在引領潮流,努力讓AI工具成為主流。不過,微軟仍然保留著名為負責任AI辦公室(ORA)的團隊,其任務是制定規(guī)則來管理公司的AI。微軟表示,盡管最近進行了裁員,但其在責任工作方面的整體投資始終在增加。
種種跡象表明,追逐熱錢的硅谷,在AI風潮中似乎有了迷失的跡象:巨額投入帶來的商業(yè)化變現(xiàn)壓力、對技術進步的狂熱信仰,可能正使得至關重要的AI安全問題,被許多科技公司所忽略。
Altman會去創(chuàng)辦一家新公司嗎?
宮斗懸疑尚未塵埃落定,但無論結果如何,Sam Altman肯定不愁去處,連法國都對他拋出了橄欖枝。
華爾街見聞此前指出,包括微軟在內的幾家大股東,已經在向OpenAI董事會施壓,要求Altman回歸。還有媒體報道稱,Altman正在考慮另立門戶,成立新公司,并吸納一些OpenAI之前的員工。
周五被解雇后,包括紅杉資本Alfred Lin和SV Angel創(chuàng)始人Ron Conway在內的幾位風險投資人都發(fā)表公開聲明支持Altman,紅杉及SV Angel都是OpenAI的主要投資者。
Alfred Lin在 X 上寫道,他期待看到Altman和Brockman創(chuàng)建的下一個改變世界的公司。
Altman在硅谷有著深厚的關系,與科技巨頭高管、投資人和政要有密切私教。他曾經親自從谷歌和其他公司挖來許多重要的研究人員和工程師,為OpenAI創(chuàng)業(yè)成功奠定了基礎。
可以預見的是,無論以何種形式收場,無論Altman的野心會不會收斂,他肯定會比以前小心得多,不會再留出組織架構上的疏漏,讓下屬能輕易驅逐他。
劇情可能像一位見聞用戶的神評論那樣:
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
作者:xinfeng335本文地址:http://leetv.com.cn/post/4391.html發(fā)布于 今天
文章轉載或復制請以超鏈接形式并注明出處義烏市挈宇網絡科技有限公司