2024 年 6 月:一個不賣產品的 AI 公司
2024 年 6 月,當全球科技圈都在瘋狂追逐 AI 產品變現的時候,有個公司宣布成立,卻說「我們不做商業產品」。
這家公司叫 Safe Superintelligence Inc.(SSI),中文直譯就是「安全超級智慧公司」。創辦人是剛從 OpenAI 離職的首席科學家 Ilya Sutskever。
不到三個月,這家「不賺錢」的公司完成 10 億美元 A 輪融資,估值 50 億美元。2025 年,再追加 20 億美元。投資人包括矽谷頂尖創投,但 Ilya 只答應一件事:「我們只做安全研究,不接受外部壓力。」
這是理想主義?還是他看到了什麼別人沒看到的?
要理解 SSI 為什麼這麼做,得先理解 Ilya Sutskever 是誰——以及他過去十年在 OpenAI 經歷了什麼。
從蘇聯到多倫多:深度學習革命的關鍵人物
Ilya Sutskever 1986 年生於蘇聯(現俄羅斯),5 歲移民以色列,後來全家又移民加拿大。他在多倫多大學就讀時,遇到了改變他一生的人:Geoffrey Hinton(深度學習教父)。
2012 年,Ilya 與同學 Alex Krizhevsky 合著論文,發表了 AlexNet——一個用深度學習做圖像辨識的神經網路。這個模型在當年的 ImageNet 競賽中大幅超越所有對手,錯誤率從 26% 降到 15%。
這場比賽徹底改變了 AI 圈。Google、Facebook、Microsoft 全部衝進深度學習領域,招募 Hinton 團隊的成員。Ilya 在 2014 年加入 Google Brain,成為核心研究員。
但他待不到兩年,就做了另一個決定:加入一家剛成立、沒人看好的非營利組織——OpenAI。
OpenAI 的十年:從理想到內部風暴
2015 年,Sam Altman、Elon Musk、Ilya Sutskever 等人共同創辦 OpenAI,當時的使命是「確保通用人工智慧(AGI)造福全人類」。
Ilya 擔任首席科學家,主導幾乎所有重大研究:
- GPT 系列:從 GPT-1(2018)到 GPT-4(2023),奠定大語言模型的基礎架構
- DALL-E:文字生成圖像,2021 年發表時引發全球關注
- Whisper:語音辨識系統,開源且效能超越多數商業產品
- Codex:程式碼生成模型,後來成為 GitHub Copilot 的核心
OpenAI 從非營利組織轉為「有上限營利」公司(capped-profit),接受 Microsoft 130 億美元投資,推出 ChatGPT 後爆紅全球。但隨著商業壓力增加,OpenAI 內部逐漸分裂。
2023 年 11 月:董事會罷免 Sam Altman
2023 年 11 月 17 日,OpenAI 董事會突然宣布罷免 CEO Sam Altman,理由是「與董事會溝通不夠坦誠」。Ilya Sutskever 是投票支持罷免的董事之一。
這場風暴震撼整個科技圈。OpenAI 員工聯名威脅離職,Microsoft 宣布願意接收所有員工。五天後,Sam Altman 回歸 CEO,董事會改組,Ilya 退出董事會。
Ilya 後來在 Twitter 發文:「I deeply regret my participation in the board’s actions.」(我深深後悔參與董事會的行動。)
但真正的問題是:Ilya 為什麼投票罷免 Sam?
根據多方報導,Ilya 一直擔心 OpenAI 走得太快、太商業化,沒有足夠時間確保 AI 安全。他希望放慢腳步,優先做安全研究——但這與 Sam Altman 的「快速推進 AGI」策略衝突。
罷免失敗後,Ilya 在 OpenAI 內部逐漸邊緣化。2024 年 5 月 14 日,他宣布離開 OpenAI。
為什麼 Ilya 選擇離開?
離開 OpenAI 時,Ilya 在 Twitter 寫道:「OpenAI has a very important mission, and I believe it will do great things.」(OpenAI 有非常重要的使命,我相信它會做出偉大的事。)
但他沒說的是:他不再相信 OpenAI 的結構能實現「安全的 AGI」。
根據《The Information》報導,Ilya 離職前幾個月一直在思考一個問題:「如果一家公司必須對投資人負責、必須成長、必須推出產品——它真的有可能專注於 AI 安全嗎?」
他的答案是:不可能。
於是,他決定從零開始,建立一家「只做安全研究」的公司——Safe Superintelligence Inc.。
SSI 是什麼?結構、資金、使命
2024 年 6 月,Ilya Sutskever 與兩位共同創辦人——Daniel Gross(前 Y Combinator AI 負責人)、Daniel Levy(OpenAI 前研究員)——宣布成立 Safe Superintelligence Inc.(SSI)。
公司架構設計
SSI 的核心設計原則是:安全研究必須與商業壓力隔離。
- 不推出商業產品:SSI 不做 ChatGPT 那種對外服務,專注於研究
- 不接受短期變現壓力:融資結構設計成「長期研究基金」,投資人不要求快速回報
- 只有一個目標:開發「安全的超級智慧」(safe superintelligence)
Ilya 在公司官網寫道:「A superintelligent AI that is not safe is not actually that interesting.」(不安全的超級智慧其實沒有意義。)
資金來源
- 2024 年 9 月:完成 10 億美元 A 輪融資,估值 50 億美元
- 2025 年:再完成 20 億美元融資(部分報導顯示)
- 投資人包括 Sequoia Capital、Andreessen Horowitz 等頂尖創投
這些投資人願意接受「不推產品、不快速變現」的條件,核心原因是:他們相信 Ilya 看到了 AGI 安全的根本問題。
團隊與研究方向
SSI 團隊成員多來自 OpenAI、DeepMind、Google Brain,核心研究方向包括:
- 對齊研究(Alignment):如何確保超級智慧的目標與人類價值觀一致
- 可解釋性(Interpretability):理解神經網路內部運作機制,避免黑盒子風險
- 安全擴展(Safe Scaling):在模型能力提升的同時,確保安全機制同步升級
Ilya 曾在訪談中說:「我們不是在做一個產品,我們是在解決人類面臨的最重要問題。」
安全超級智慧的意義:為什麼只做安全研究?
你可能會問:為什麼 Ilya 這麼堅持「安全優先」?
因為他見過 AI 能力爆發的速度——從 GPT-1 到 GPT-4,只花了五年。他知道,當模型能力突破某個臨界點,可能會出現人類無法控制的局面。
什麼是「超級智慧」?
超級智慧(Superintelligence)是指在幾乎所有認知任務上都超越最聰明人類的 AI 系統。Nick Bostrom 在《超智慧》一書中警告:一旦出現超級智慧,人類文明可能面臨存亡風險。
Ilya 的核心觀點是:我們必須在超級智慧出現之前,先解決安全問題——而不是等問題出現再來補救。
為什麼商業公司做不到?
Ilya 認為,商業公司有三個結構性問題:
- 季度業績壓力:投資人要求成長,公司必須快速推出產品
- 競爭壓力:OpenAI 要跟 Google、Anthropic 競爭,不能落後
- 內部政治:安全團隊與產品團隊利益衝突,最後通常是產品優先
SSI 的設計就是為了避開這些問題:沒有產品、不用競爭、只做研究。
行業觀察:SSI vs OpenAI vs DeepMind vs Anthropic
目前全球有四家主要的 AI 安全研究機構,各有不同路線:
OpenAI
- 路線:快速推進 AGI,邊做邊學(iterative deployment)
- 商業模式:ChatGPT Plus 訂閱 + API 服務
- 安全策略:「Superalignment」團隊(Ilya 離職前負責),但已解散重組
DeepMind(Google)
- 路線:學術研究優先,產品化由 Google 主導
- 商業模式:Gemini 整合進 Google 產品(搜尋、Workspace)
- 安全策略:紅隊測試 + 對齊研究,但受 Google 商業壓力影響
Anthropic
- 路線:「Constitutional AI」(憲法式 AI),用規則約束模型行為
- 商業模式:Claude API + 企業服務
- 安全策略:強調可解釋性,但仍需推產品維持營運
Safe Superintelligence Inc.(SSI)
- 路線:安全優先,不推產品
- 商業模式:無(靠長期融資維持)
- 安全策略:完全專注於對齊、可解釋性、安全擴展
核心差異:OpenAI、DeepMind、Anthropic 都要對投資人負責,必須推產品。SSI 是唯一「不需要賺錢」的公司。
Ilya 的核心信念:做對的事,而不是快的事
Ilya 在離開 OpenAI 後的一次訪談中說:「如果我們做對了,超級智慧可以解決人類幾乎所有問題——貧窮、疾病、氣候變遷。但如果做錯了,可能是人類文明的終點。」
他不是危言聳聽。根據 2023 年的一項調查,超過 50% 的 AI 研究者認為,AGI 在 2040 年前出現的機率超過 50%。而其中 10% 的人認為,AGI 可能對人類構成「存亡風險」。
SSI 的存在,就是為了確保:當超級智慧真的出現時,我們已經準備好了。
反思:SSI 能成功嗎?
SSI 的模式很理想,但也面臨三個質疑:
- 資金能撐多久? 30 億美元聽起來很多,但頂尖 AI 研究燒錢速度極快(訓練一次大模型可能要數千萬美元)
- 能吸引到最好的人才嗎? Google、OpenAI 提供高薪 + 股票,SSI 能給什麼?
- 「不推產品」真的可行嗎? 沒有產品反饋,研究會不會脫離現實?
但換個角度想:如果連 Ilya Sutskever 這種頂尖科學家都無法專注於安全研究,那誰能做到?
SSI 的實驗不只是關於技術,更是關於「人類能否在追求進步的同時,保持足夠的謹慎」。
FAQ:關於 Ilya Sutskever 與 SSI 的常見問題
Q1:SSI 現在在做什麼?
根據公開資訊,SSI 目前專注於三個方向:對齊研究(確保 AI 目標與人類一致)、可解釋性(理解神經網路運作)、安全擴展(確保模型變大時安全機制同步升級)。具體研究細節尚未對外公開。
Q2:Ilya 怎麼看 AGI?
Ilya 認為 AGI(通用人工智慧)在未來 10-20 年內有很高機率實現。他曾說:「AGI is not a matter of if, but when.」(AGI 不是會不會出現的問題,而是何時出現。)但他強調,必須確保 AGI 是「安全且對齊人類價值觀」的。
Q3:SSI 會推出產品嗎?
目前 SSI 官方立場是「不推出商業產品」,專注於研究。但長期來看,如果他們真的解決了「安全超級智慧」的問題,可能會以某種形式(開源模型、授權技術等)分享成果。
Q4:Ilya 與 Sam Altman 現在還有聯繫嗎?
根據報導,兩人在 2023 年 11 月事件後關係緊張。Ilya 離開 OpenAI 時雖然發文祝福,但沒有跡象顯示兩人有密切聯繫。不過,矽谷圈子小,未來可能還會有交集。
Q5:為什麼投資人願意投不賺錢的公司?
矽谷頂尖投資人願意投 SSI,核心原因是:他們相信 AI 安全是未來最重要的問題之一,而 Ilya 是全球最有資格解決這個問題的人。如果 SSI 成功,可能間接影響整個 AI 產業的安全標準,這本身就是巨大價值。
總結:一個科學家的選擇
Ilya Sutskever 的故事,是一個科學家在理想與現實之間做出選擇的故事。
他可以留在 OpenAI,領高薪、做 GPT-5、成為全球最知名的 AI 科學家。但他選擇離開,去做一件「可能十年內看不到回報」的事——確保超級智慧是安全的。
SSI 會成功嗎?沒人知道。但至少,他在做一件他相信「對」的事。
問題是:當我們追求 AGI 的速度越來越快,還有多少人願意停下來,認真思考「安全」這件事?
Ilya Sutskever 的答案是:至少我願意。
而這,或許就是 Safe Superintelligence Inc. 最重要的意義。
解壓縮 → 拖入 Claude Code → 輸入任意一句話,5 分鐘完成安裝
✅ EvoForge 核心功能:
🧠 三層記憶系統,50 Token 完成查詢(關掉不再忘記)
🔗 85-Token 跨對話橋接,任務中斷秒速恢復不重頭來
⚡ DCI 動態 Context 注入,省 70%+ Token
📈 Stop Hook 自動進化,同類任務 3 次自動腳本化
🛠️ 12 個核心技能,/斜線指令開箱即用
🤖 3 個子代理協作,不消耗主對話 Token
原價 NT$1,288
NT$600
前 100 名優惠 · 買斷不收月費 · MIT 授權可自由修改
Mac & Windows 適用 · 確認匯款後立即出貨 · LINE:kenemail2

