全球最完整開源 LLM 誕生:Alps 超級電腦結合綠能與 AI 模型創新
- 奇軒 李
- 3天前
- 讀畢需時 5 分鐘

生成式 AI 在全球掀起技術與商業浪潮,但開源程度低、資源集中在美中科技巨頭,一直讓許多研究機構、開發者與中小企業難以參與其發展。而今,一股來自瑞士阿爾卑斯山的開放清風,為這個困境帶來轉機。
在上週於日內瓦舉行的國際開源 LLM 建設者峰會上,瑞士國家超級電腦中心(CSCS)聯合 ETH Zurich、EPFL 等機構正式對外宣布:在 Alps 超級電腦基礎上訓練出兩款完全開源的大型語言模型(LLM),分別為 80 億與 700 億參數版本。這些模型不僅性能強大、語言涵蓋超過 1,000 種,更重要的是:將在 2025 年夏天全面以 Apache 2.0 授權釋出,包括權重、程式碼、訓練配方與評估腳本。這不僅是歐洲史上首次,也是全球 AI 發展中罕見的公共科技壯舉。
文章導覽:
一、Alps 超級電腦:專為 AI 計算打造的綠色巨獸
這場訓練工作的核心算力,來自瑞士聯邦斥資 1 億瑞士法郎建置的超級電腦 Alps。由 HPE Cray 設計,搭載超過 10,000 顆 NVIDIA GH200 Grace-Hopper 晶片、2,688 個計算節點,Alps 在 2025 年 Top500 超算排名中位居全球第八、歐洲第三,並針對 AI 工作負載進行最佳化調校。
其特點不僅在硬體:
能源效率高:採用 CPU-GPU 共封裝與 HBM3 記憶體技術,減少能耗與延遲。
冷卻系統創新:利用盧加諾湖深層湖水液冷,搭配熱能回收供應市區暖氣,打造能源再利用循環。
完全以水力綠電驅動:全年用電來自瑞士水力發電廠,讓這座超級電腦的直接碳排放近乎為零。
Alps 的設計體現了瑞士式的精準與可持續理念,也讓它成為全球首批以 ESG(環境、社會、治理)精神打造的 AI 超算之一。
二、此次推出模型特色有哪些?
(一)多語言設計
這項基礎模型訓練的一大特色,在於其涵蓋超過 1,500 種語言,堪稱全球多語言能力最完整的 LLM 之一。正如專案負責人 Antoine Bosselut 所言:「我們從一開始就強調,模型必須具備大規模的多語言理解能力。」
整體語料包含約 60% 英語與 40% 非英語內容,同時融入大量來自全球各地的語言、文化文本、程式碼與數學資料。這樣的設計讓最終模型能以更高的泛用性與文化適應性,支援來自不同語言背景的使用者,真正實現全球導向的 AI 發展目標。
(二)專為規模與包容性而打造:兩種版本滿足不同需求
此次開源語言模型將提供 兩種參數規模:80 億(8B)與 700 億(70B),以因應不同使用場景與算力條件。其中,700 億參數版本將成為全球最強大的完全開源模型之一,在推理能力與複雜指令理解方面具備頂尖水準。
模型的訓練資料涵蓋超過 15 兆個高品質 token(即語言中單詞或子詞的最小單位),涵蓋文本、程式碼與數學資料,確保其在語言理解、邏輯推理與應用彈性上具備高可靠性。無論是企業級應用、研究探索,或是開源社群實驗,這套模型都能提供穩定且具包容性的基礎能力支援。
(三)負責任的資料實踐
在模型開發過程中,團隊嚴格遵循 瑞士資料保護法(nFADP)、瑞士版權法以及即將上路的 歐盟人工智慧法案(EU AI Act),特別是在資料透明度與使用授權方面,確保每一階段都符合法規要求。
更值得關注的是,在資料蒐集階段,團隊選擇尊重網站的 robots.txt 設定與選擇退出機制,也就是尊重網站是否允許爬蟲抓取內容。且根據近期一項研究顯示,這種「資料治理友善」的做法對於模型在多數日常任務與通用知識應用上的效能幾乎沒有負面影響,這證實了AI 模型的效能與資料倫理並非二擇一。
這也為大型語言模型的未來訓練設定了重要示範:在追求技術突破的同時,責任與透明不應被犧牲。
(四)超級電腦作為自主 AI 發展的關鍵推動者
此次語言模型的訓練工作在瑞士盧加諾的 CSCS(瑞士國家超級電腦中心)所建置的超級電腦 Alps 上完成。Alps 被譽為全球最先進的 AI 計算平台之一,搭載超過 10,000 顆 NVIDIA Grace Hopper 超級晶片,具備極高的記憶體頻寬與運算密度,專為訓練大型語言模型與生成式 AI 任務所設計。
更重要的是,Alps 全年使用 100% 碳中和電力運作,主要來自瑞士水力發電。其能源使用策略結合了高效能液冷系統與熱能再利用,讓模型訓練不僅具備卓越效能,也符合低碳與永續發展原則,為全球 AI 計算示範了技術與環境責任可以並行的實踐路徑。
三、此次LLM 為產學界創造的效益:開源授權
瑞士開發團隊不僅宣布公開語言模型的 參數權重,更進一步釋出一整套完整開源資源,包含:
訓練資料配方(dataset recipe)
資料預處理與模型訓練程式碼
評估指標與 benchmark 腳本
安全性與偏見分析工具
這樣的開放策略不僅符合學術界對 AI 再現性與開放科學的標準,也為企業與開發者提供了一個可自由調整、可商用、可審計的模型基礎,大幅降低進入門檻,擴大 AI 的應用普及與創新空間。
研究團隊強調,「完全開放」是此計畫的核心原則。不同於微軟、Google、Meta 等企業對其模型權重與訓練流程多採取部分封閉策略,來自蘇黎世聯邦理工學院(ETH Zurich)的研究人員承諾,除了開放模型與權重供外界審查與微調外,連同訓練使用的源碼與資料來源設計都將一併公開,實現完整透明與可重現性。
來自洛桑聯邦理工學院(EPFL)的教授 Martin Jaggi 更指出:
「透過徹底開放,我們有別於傳統商業模型的閉門研發模式,目標是推動瑞士、歐洲乃至跨國層級的 AI 創新。」
這樣的策略不僅是對科學透明原則的堅持,更是一種對全球 AI 社群的邀請,一起參與、共享、並以開放合作的方式拓展人工智慧的公共價值。
四、延伸思考:AI 發展與 ESG 能否並行?
在高能耗成為大型 AI 模型最大爭議之一的今天,瑞士的做法提供了清晰的答案:
使用水力發電減碳
利用深層湖水液冷提高能效
回收熱能服務城市供暖
全開源促進資訊公開與安全審查
法規合規與倫理自律並行
這正是 ESG 精神在 AI 領域的完整實踐:
E(環境):低碳轉型鋪路
S(社會):強化多語與數位共融
G(治理):展現透明與問責。
五、結論
瑞士 Alps 超算訓練的 LLM 不僅是技術上的里程碑,更在模型開放性、社會導向與環境可持續三大面向給出最佳示範。
當生成式 AI 正從「炫技」進入「落地」時代,我們需要的不只是更大的模型、更快的推論,而是更可信、更負責任的基礎建設。來自阿爾卑斯山的這場開源革命,正好為全球 AI 生態指出一條值得追尋的道路。
Comments