- +1
前OpenAI首席科學家成立新公司:安全超級智能是唯一目標

OpenAI聯合創始人、前首席科學家伊爾亞·蘇茨克維
從OpenAI離開一個月后,伊爾亞成立了一家公司。
6月20日,OpenAI聯合創始人、前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)在社交平臺X上發文宣布成立新公司SSI(safe superintelligence,安全超級智能)。
他表示新公司將致力于追求安全超級智能,“只有一個重點、一個目標和一個產品。我們將通過一支精干的小團隊取得革命性的突破,從而實現這一目標。”

伊爾亞的推文
根據SSI的公告,該公司由伊爾亞以及丹尼爾·格羅斯(Daniel Gross)和丹尼爾·利維(Daniel Levy)共同成立。格羅斯為前蘋果高管、Y-Combinator合伙人,利維是前OpenAI研究員。
“不讓商業壓力影響技術安全和進步”
三位SSI的創始人在公告中表示,超級智能已經觸手可及,構建安全超級智能(SSI)是這個時代最重要的技術難題。
公告稱:“我們已經啟動了世界上首個專注于SSI的實驗室,目標和產品都只有一個:安全超級智能。這個實驗室名為Safe Superintelligence Inc。SSI是我們唯一的關注點,我們的團隊、投資人和商業模式都致力于實現SSI。我們將安全性和能力視為通過革命性工程和科學突破來解決的技術難題。我們計劃盡快提高能力,同時確保安全性始終保持領先地位。這樣我們就可以安心擴展規模。我們專注于一個目標,這意味著不會受管理開銷或產品周期的干擾。我們的商業模式可以保證安全和進步等都不受短期商業壓力的影響。”
該公告或許也解釋了伊爾亞為何離開OpenAI。
日前,據外媒報道,自去年12月以來,OpenAI的年化收入翻倍,達到34億美元,其中32億美元來自訂閱和API(應用接口)訪問。而公司CEO山姆·奧特曼(Sam Altman)也被曝已告知股東,公司正在考慮調整治理結構,將轉為不受非營利性董事會控制的營利性公司,此舉被指意在為IPO(首次公開募股)鋪路。
伊爾亞在5月宣布離職時表示,OpenAI的發展軌跡堪稱奇跡,相信OpenAI將在山姆·奧特曼(Sam Altman)、總裁格雷戈里·布羅克曼(Greg Brockman)、首席技術官米拉·穆拉蒂(Mira Murati)以及雅庫布·帕喬基(Jakub Pachocki,新任首席科學家)的領導下,打造既安全又有益的AGI(通用人工智能)。
伊爾亞在2015年參與創立了OpenAI。當年,他參加了時任Y Combinator總裁奧特曼的一場晚宴,并遇到了埃隆·馬斯克(Elon Musk)和布羅克曼,當時他們就公司的非營利性達成一致。
2022年底,聊天機器人ChatGPT發布,OpenAI瞬間出圈,走紅全球。
此后,OpenAI每年都會推出重磅新品,2023年3月,GPT-4發布;今年5月,多模態全能大模型GPT-4o發布,此后與蘋果合作接入GPT。
要“光鮮的產品”還是安全
人們對GPT-5、超級智能更加期待的同時,對于安全的擔憂也開始出現。
2023年底,奧特曼就曾因此陷入“宮斗”風波,被OpenAI董事會解雇。事件最終以奧特曼重返公司復職并重組董事會告終,伊爾亞也從董事會名單中消失。
彼時,據消息人士稱,穆拉蒂曾告訴員工,一封關于Q*(發音為 Q-Star)AI取得突破的信件促使董事會采取了解雇行動。
OpenAI在Q*上取得的進展,讓部分公司內部人士相信,這可能是他們找到“超級智能(即AGI)”的突破。OpenAI將AGI定義為“比人類更聰明的AI系統”。
伊爾亞是否真的看見了Q*也一直是人們關注的焦點,奧特曼在公開采訪中也被多次問及,而他反復表示了對伊爾亞的愛戴和尊敬。
今年5月,伊爾亞宣布離職,幾小時后,OpenAI核心安全團隊“超級對齊”的負責人楊·萊克(Jan Leike)也宣布離職。據報道,隨著兩位領導的離開,超級對齊團隊也被解散,將納入其他研究工作當中。
消息人士透露,注重AI系統安全的員工已對奧特曼的領導失去信心。萊克在宣布離職后,也發帖怒斥OpenAI及領導層“重視光鮮的產品,安全文化和流程不再受到重視”。
作為OpenAI早期投資人的馬斯克也多次抨擊OpenAI忘記初衷,并一度將其告上法庭,要求OpenAI恢復開源,并要求法院下達禁令,禁止OpenAI、布羅克曼和奧特曼以及微軟從該公司的通用人工智能技術中獲利。
在OpenAI與蘋果合作后,馬斯克更是炮轟稱集成了OpenAI技術的iPhone將會是令人毛骨悚然的“間諜軟件”。
OpenAI也采取了多項措施,包括引入新的團隊、成立由董事會主導的安全委員會,也不止一次發布聲明強調對于安全的重視。
當地時間6月11日,穆拉蒂在一場《財富》雜志的活動上就IPO傳聞及馬斯克的批評等作出了回應,她表示近期OpenAI的招聘意味著公司將進入下一階段,而最大的風險是利益相關者誤解了技術。
穆拉蒂在活動上透露,OpenAI實驗室里的模型,其實與公開模型之間不存在很大差距。
她表示:“這是一種與以往完全不同的技術推廣方式。這是個很好的機會,因為它能讓人們參與進來,并對這些技術的能力和風險有更直觀的了解,從而為先進AI的到來做好準備,這里面蘊含著巨大的機會。”她認為,經常談論風險是正常的,因為確實非常重要,“但如果我們不相信這些機會是巨大的,我們也不會去做這件事。”





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司