cropped 房地產阿宥(AI房仲).png

Aidan Gomez 是誰?20歲寫出 Attention Is All You Need,Cohere 創辦人故事整理(2026)

2017年的Google Brain實習生辦公室,一個20歲的加拿大學生正在和6位研究員一起寫著一篇論文。他們不知道,這篇名為「Attention Is All You Need」的論文,將在往後改寫整個人工智慧的歷史。這個學生叫 Aidan Gomez,今天所有你用過的大語言模型——ChatGPT、Claude、Gemini——全部都建立在他當年參與設計的 Transformer 架構之上。兩年後,他創辦了 Cohere,走上一條與 OpenAI 完全不同的路:不追求通用人工智慧(AGI),而是專注在企業能真正使用的AI工具。

20歲的實習生,寫出改變AI世界的論文

Aidan Gomez 出生在加拿大安大略省多倫多,在布賴頓(Brighton, Ontario)這個小鎮長大。從小對數學和電腦科學著迷的他,進入多倫多大學修讀電腦科學與數學雙學士學位。2017年,當他還是20歲的本科生時,他申請到了 Google Brain 的實習機會——這是 Google 內部專門研究深度學習的頂尖團隊。

在 Google Brain,Gomez 加入了 Ashish Vaswani 帶領的一個小型研究小組。那時候,自然語言處理(NLP)領域遇到了瓶頸:主流的 RNN(循環神經網路)和 LSTM(長短期記憶網路)架構,處理長文本時會遺忘前面的資訊,訓練速度也很慢。研究團隊在思考一個問題:有沒有一種方法,可以讓模型「同時看到」整段文字的所有部分,而不是一個字一個字地讀?

這個問題的答案,就是 Attention Mechanism(注意力機制)。Gomez 和團隊提出了一個革命性的想法:不再用循環結構,改用「自注意力」(Self-Attention)讓模型自己學會哪些字詞之間有關聯。這個架構被命名為 Transformer

2017年6月,論文「Attention Is All You Need」提交到 NeurIPS,8位共同作者的名字出現在論文上,Aidan Gomez 是其中最年輕的一位。這篇論文成為往後所有大型語言模型的基礎架構,引用次數已超過10萬次。

Transformer 之前的AI世界:RNN 與 LSTM 的局限

要理解 Transformer 有多重要,需要先了解它出現之前自然語言處理有多困難。

RNN 的記憶問題:循環神經網路的設計邏輯是「一個字接一個字讀」,每次讀到新的字,會把前面讀到的資訊壓縮成一個「隱藏狀態」傳遞下去。但當句子很長的時候,前面的資訊會被後面的資訊覆蓋掉——就像聽一個很長的故事,到最後只記得結尾,忘記開頭在講什麼。

LSTM 的改良與侷限:LSTM 試圖解決這個問題,加入了「記憶閘門」,可以選擇性地記住重要資訊。但 LSTM 仍然逃不開「循序處理」的限制:它必須等前一個字處理完,才能處理下一個字,無法平行運算。這導致訓練速度非常慢,尤其是處理長文本時。

「Attention Is All You Need」:一個改變遊戲規則的想法

Transformer 的核心突破在於 Self-Attention(自注意力機制)——讓模型在處理每個字的時候,同時看到整段文字的所有其他字,並自己學會哪些字之間有關聯

舉個例子:「銀行的利率很高」中的「銀行」,和「河岸邊的銀行」中的「銀行」,意思完全不同。Self-Attention 讓模型看到「利率」就判斷第一個是金融機構;看到「河岸」就知道第二個是地理位置。這個判斷不是事先寫死的規則,而是模型從大量文本中學到的。

因為 Transformer 不需要「一個字接一個字」處理,它可以同時處理整段文字的所有字,充分利用 GPU 的平行運算能力,訓練速度比 RNN/LSTM 快了數倍甚至數十倍。

論文發表後,Google 在2018年推出了基於 Transformer 的 BERT 模型,在11項 NLP 任務上刷新世界紀錄。OpenAI 在2018年發表 GPT-1,同樣使用 Transformer 架構。往後的 GPT-4、Claude、Gemini、LLaMA——全部都是 Transformer 的衍生版本

Cohere 的誕生:企業需要的不是 AGI,而是可靠的 AI 工具

2019年,Aidan Gomez 與兩位 Google Brain 的同事——Nick Frosst 和 Ivan Zhang——共同創辦了 Cohere。公司名稱意思是「連貫、協調」,象徵著他們想做的事:讓 AI 成為企業工作流程中真正連貫、可靠的一部分,而不是遙不可及的科幻概念

Cohere 從一開始就選擇了和 OpenAI 完全不同的定位:

  • OpenAI:追求通用人工智慧(AGI),面向消費者市場,產品是 ChatGPT 這種任何人都能用的聊天機器人。
  • Cohere:專注企業 B2B 市場,提供可以整合進企業系統的 AI 模型和 API,讓企業能夠在自己的資料上訓練、微調模型,並確保資料隱私和合規性。

Gomez 曾說:「大部分企業不需要一個能通過圖靈測試的 AI,他們需要的是一個能準確回答客戶問題、自動分類文件、生成報告的工具。」

Cohere 的產品線:從語言模型到多語言 AI

Cohere 針對企業需求設計了完整的產品線:

  • Command 系列:旗艦語言模型,強調可控性和可靠性。支援 RAG(檢索增強生成)、輸出格式控制、多語言(超過70種語言包括繁體中文)。企業可透過 API 呼叫或在自己的基礎設施上私有部署。
  • Embed:把文字轉換成向量,用於語意搜尋、文件分類、推薦系統。在多個公開基準測試上超越 OpenAI 的 text-embedding-ada-002。
  • Rerank:對搜尋結果重新排序,把最相關的文件排在最前面。對企業內部知識管理系統特別有用。
  • Aya:開源的多語言模型,支援超過70種語言,訓練資料來自全球3000多名志願者貢獻的多語言資料集。展現了 Gomez 當年創辦 FOR.ai 的初心:讓 AI 的力量不只屬於英語世界

融資與估值:16億美元的企業 AI 獨角獸

截至2025年9月,Cohere 已完成多輪融資,總融資額達到約16億美元,估值超過70億美元

主要投資者包括 Index Ventures、Tiger Global、Inovia Capital(加拿大頂級創投)、Salesforce Ventures(戰略投資者)、Nvidia、Oracle 等。

Cohere 的收入主要來自兩個方向:API 呼叫費用(按使用量付費)和私有部署授權(大型企業在自己伺服器上部署,利潤率更高)。

Aidan Gomez 的觀點:輕視 AI 末日論

在 AI 安全性討論上,Gomez 公開表示輕視所謂的「AI 末日論」,認為這種擔憂被過度誇大。他認為比起假設性的「超級智慧 AI 叛變」,社群媒體上錯誤資訊的蔓延才是當下最緊迫的問題——AI 生成的深偽影片、假新聞、機器人帳號已在真實世界造成選舉干預、金融詐騙等實際傷害。

2023年,Gomez 入選《Time》雜誌 Time 100 AI 名單。2025年4月,他加入電動車公司 Rivian 的董事會,展現企業 AI 滲透到各行各業核心技術的潛力。

Cohere 在台灣可以用嗎?

台灣的企業和開發者可以透過三種方式使用 Cohere:

  1. 官方 API:在 cohere.com 註冊帳號,免費試用 Command、Embed、Rerank 等服務
  2. 雲端平台:透過 Oracle Cloud、AWS、Azure 部署 Cohere 模型,資料不離開企業雲端環境
  3. 私有部署:模型完全在企業內部伺服器上運行,適合金融、醫療等高度敏感產業

台灣企業的實際應用場景包括:客服自動化、文件分類與摘要、內部知識庫語意搜尋、多語言客戶支援等。

反思:在 AGI 熱潮中,Cohere 的「企業優先」路線能走多遠?

OpenAI、Google、Anthropic 都在追求更強大的通用模型,Cohere 選擇了更務實的路線:不追求最強,而是追求最適合企業的 AI

面對開源模型的衝擊(Meta LLaMA、Mistral AI Mixtral 越來越強)和大廠進入企業市場的競爭,Gomez 的答案很明確:企業需要的不是最強的模型,而是最穩定、最可靠、最符合合規要求的模型——100次呼叫100次都穩定正確,比偶爾的「超強表現」更重要。

從多倫多大學的學生,到 Google Brain 的實習生,到改寫 AI 歷史的論文共同作者,再到估值70億美元公司的創辦人——Aidan Gomez 的故事告訴我們:改變世界的方式不只有一種。而這個故事,還在繼續。

常見問題

Aidan Gomez 是誰?

Aidan Gomez 是英裔加拿大電腦科學家,專攻 AI 和自然語言處理。他在20歲時於 Google Brain 實習,共同撰寫了2017年劃時代論文「Attention Is All You Need」,奠定了 Transformer 架構的基礎。2019年,他與兩位 Google Brain 同事共同創辦了企業 AI 公司 Cohere,截至2025年,Cohere 已融資約16億美元,估值超過70億美元。

Cohere 和 OpenAI 有什麼不同?

核心差異在於目標市場和產品定位。OpenAI 追求 AGI,主力產品 ChatGPT 面向消費者市場;Cohere 則專注企業 B2B 市場,強調資料隱私、私有部署、合規性和客製化能力,讓企業能在自己的資料上訓練模型,確保敏感資料不被用來訓練公開模型。

Attention Is All You Need 論文有多重要?

「Attention Is All You Need」提出了 Transformer 架構,用 Self-Attention 取代了傳統的 RNN/LSTM,讓模型能同時看到整段文字的所有部分,支援平行運算。往後所有主流大型語言模型——GPT-4、BERT、Claude、Gemini、LLaMA——全部都基於 Transformer 架構。這篇論文是現代 AI 革命的基石。

Cohere 在台灣可以用嗎?

可以。台灣企業和開發者可透過:①在 cohere.com 直接使用官方 API(有免費試用額度);②透過 Oracle Cloud、AWS、Azure 等平台部署;③購買私有部署方案(完全在企業內部伺服器運行)。

Aidan Gomez 幾歲創立了 Cohere?

Aidan Gomez 在 2019年創立 Cohere,當時約22-23歲(根據2017年20歲實習推算)。他在本科畢業後前往牛津大學攻讀電腦科學博士,並在2024年完成學位,在博士期間同時經營 Cohere,展現了學術研究與商業創業並行的能力。

資料來源:Wikipedia – Aidan GomezCohere 官方網站


🚀 EvoForge 進化工坊|讓 Claude Code 會記憶、會學習、會進化 →

解壓縮 → 拖入 Claude Code → 輸入任意一句話,5 分鐘完成安裝

✅ EvoForge 核心功能:

🧠 三層記憶系統,50 Token 完成查詢(關掉不再忘記)

🔗 85-Token 跨對話橋接,任務中斷秒速恢復不重頭來

⚡ DCI 動態 Context 注入,省 70%+ Token

📈 Stop Hook 自動進化,同類任務 3 次自動腳本化

🛠️ 12 個核心技能,/斜線指令開箱即用

🤖 3 個子代理協作,不消耗主對話 Token

原價 NT$1,288

NT$600

前 100 名優惠 · 買斷不收月費 · MIT 授權可自由修改

Mac & Windows 適用 · 確認匯款後立即出貨 · LINE:kenemail2

Compare Listings

TitlePriceStatusTypeAreaPurposeBedroomsBathrooms

Compare