RAG是什麼?他是如何帶領LLM走向下一階段的
- 奇軒 李
- 3天前
- 讀畢需時 7 分鐘
已更新:2天前

當前的生成式 AI 正在快速改變我們與資訊互動的方式。這些模型雖然具備強大的語言理解與生成能力,但也面臨幾項根本性的挑戰:知識過時、容易產生錯誤回答(AI 幻覺)、無法驗證資料來源等問題。為了突破這些限制,研究者提出了名為「RAG(檢索增強生成)」的新技術架構,在LLM的基礎上外掛RAG,提供更準確、可信的回答。
文章導覽:
一、RAG出現前的LLM 生態環境
(一)LLM 是什麼?
LLM, 中文全名為大語言模型,那像是ChatGPT就是其中一員。他們是一種基於「深度學習」的模型,它的設計讓電腦能夠學會人類語言的模式與邏輯。這類模型的特點是: 規模龐大 、
語言能力強、廣泛運用 。
(二)為什麼會需要RAG ?
目前的 LLM 常擁有一些問題存在:
AI 偏見:
因會以數兆字的文字資料來訓練模型,這些內容不免包含的人類語言使用習慣&文化偏見,導致模型在學習時「內建」了這些偏見。
AI 幻覺:
LLM其實算是一個概率預測模型,他是依上個字去預測下個合理的字是什麼,這就代表著他無法進行理解與思考,因此有時候他才會給出一些錯誤的回答。
資料過時:
LLM會產生過時問題是因為它們的知識來源來自過去訓練時所蒐集的靜態資料集,這些資料在訓練完成後就不再更新,導致模型無法得知最新事件、科技、政策等變動。
那為了解決這些問題,研究者們為此提出了一個新方法,也是我們這篇文章的主角-RAG!
二、何謂RAG ?
( 一)RAG 基本介紹
Retrieval-Augmented Generation ( RAG ),中文叫做檢索增強生成。
可以將它視為一個「行為」,他是在LLM上外掛一個知識庫,讓LLM在回答用戶問題前先去外掛知識庫檢索相關知識,再將知識放進自己的prompt中來回答用戶問題。
簡單來說,RAG 是讓語言模型在作答前,先查資料、再回答的一種方式,使其具備「有憑有據」的能力。
(二) RAG的優點有哪些?
解決資料過時問題
RAG 可以即時連接外部資料來源(如網頁、公司知識庫),讓回答能隨時更新,解決知識落後的問題。
降低 AI 幻覺機率
RAG 利用檢索到的真實資料輔助回答,能降低模型「捏造答案」的機率,然而,其實還是有機會產生 AI幻覺。
節省重新訓練的成本
不需要為了新知識就重訓整個模型,只需更新外部知識來源即可。
涵蓋長尾知識,處理冷門問題
可以在RAG中放入特定領域的長尾知識,也就是非常複雜的知識,平時不太會被使用的,這可使專業度上升。
具資料追朔性
RAG 的回答來自明確的來源,可以附上引用連結或資料出處,讓用戶能自行驗證,提升信任感。
可內部私有化
RAG 可導入公司內部 FAQ、產品文件、政策手冊等進入私有的向量數據庫中,讓模型回答與公司實務有關的專屬問題,更貼近實際商業需求。
(三) RAG 的運作流程
流程一: 建立向量資料庫
將所需資料文本進行分段,得出若干個段落,這也就是chunks
將若干個chunks 進行向量化 (Embedding),此舉是為了把文字或其他非結構化資料(如圖片、聲音)轉換成機器能理解的「數學向量」形式,以便進行比對、分析與運算
當進行向量化後可得到一堆向量,最後就可以將其放入向量資料庫中以供查詢

流程二: 用戶查詢
當用戶對LLM進行提問後,RAG會先將問題向量化成向量
將向量化的問題對向量資料庫進行檢索,查詢相似度最高的向量答案
將向量答案輸出成Context
將Context 與 問題轉化成 Prompt 給 LLM 進行答案生成

RAG與其說他是一個外掛程式,更應該說他是一個流程,目的是為了讓最新資訊能出現在LLM回覆中。
(四) RAG 可以將哪些資料放入向量資料庫中?
只要能轉換成有意義的文字敘述,你就可以將它放進向量資料庫中,參與 RAG 的語意檢索。這不僅限於靜態文件,甚至連動態、即時產生的內容也能處理。
以下是主要類型:
純文字內容(可即時更新嵌入)
這類資料可以是靜態文件,也可以是即時生成的內容,只要轉為段落即可嵌入向量資料庫。
像是:
公司內部文件、技術文檔、操作手冊
Blog、新聞稿、法規條文(可每日更新)
線上對話紀錄、客服紀錄(動態變化內容)
圖片
圖片資訊(無論靜態或即時生成)需經 OCR 或 AI 標註,轉為語意描述後即可進入向量資料庫。像是:
掃描紙本文件、報表圖表
螢幕截圖(例:即時操作步驟截圖 + 圖說)
攝影機影像(例:即時白板手寫內容 OCR)
影片與音訊
影片與語音內容可透過 ASR(語音辨識)轉為逐字稿,並自動分段嵌入,適合各種即時語音來源:
即時會議錄音、客服通話
線上課程 / 直播影片(轉字幕 + 濃縮摘要)
Podcast、YouTube 影片內容
(五) RAG 帶來的潛在問題
Bloomberg 最新的研究揭示,這種「把外部資料引入模型思考」的設計,同時也開啟了新的攻擊途徑。如果檢索到的資料被惡意操控,模型將無法辨識內容真偽,直接將錯誤訊息或惡意指令融入回答中。簡單來說,RAG 讓 LLM 在提升能力的同時,也暴露了更大的攻擊面。
三、 RAG & Fine-tuning
(一)何謂 Fine-tuning
Fine-tuning 是指在已訓練好的LLM 上,透過使用特定領域的資料進行重新訓練模型參數,以便讓模型能更精確地理解並生成該領域的內容。
(二)RAG & Fine-tuning 的差異
| RAG | Fine-tuning |
基本概念 | 查資料 + 生成回應 | 重新訓練模型參數 |
運作方式 | 模型從外部知識庫檢索內容,再融合回答 | 使用特定資料對模型重新訓練 |
資料依賴 | 依賴知識庫品質與檢索效果 | 依賴訓練資料品質與標註準確性 |
彈性 | 知識更新簡單,只要改知識庫即可 | 更新需重新訓練模型 |
由此可知,RAG 適合需要快速更新、強調資料溯源的應用場景;Fine-tuning 則適合針對特定任務或風格長期調整模型表現。
四、未來展望: RAG的進化- Graph RAG
(一)何謂Graph RAG
GraphRAG 是RAG的進階版本,它結合了 知識圖譜 的技術,讓模型在檢索資訊時,不再只靠向量相似度,而是能利用資訊之間的「語意結構」與「邏輯關聯」來提升理解與回答的精準度。
(二) GraphRAG 的運作方式
將文本進行分段得出若干個chunks ,並進行向量化成一堆向量
將向量進行向量進行分析,找尋之間的關係,以此建立知識圖譜
將知識圖譜放入向量資料庫中
當用戶進行提問時,先去檢索相關內容,再利用知識圖譜檢索間接內容
將檢索完的資訊統整成context 餵給LLM進行回答
(三)GraphRAG 的優點
更精確的回覆
透過知識圖譜可以了解到不同的關聯,不僅是能找到和提問相似的答案,他還能理解之間的關係,像是「誰和誰可能在哪些方面會互相影響對方」。這將提供更符合用戶需求、更深度的回答。
更全面的知識覆蓋與語義理解
藉由構建知識圖譜,Graph RAG 能捕捉更豐富的上下文與語意關係,提升回答的深度與廣度,強化模型的知識整合能力。
(四) GraphRAG 與 RAG 的差異
| RAG | GraphRAG |
檢索資料型態 | 非結構化文字( 如段落、句字) | 知識圖譜 |
推理能力 | 限制於單跳、表面語意 | 可多跳推理、具邏輯關係 |
(五)目前GraphRAG 現況
目前 Graph RAG 仍處於研究與實驗階段,尚未大規模商用,主要挑戰如下:
資料圖譜化困難(尤其對非結構化資訊)
圖譜更新與維護成本高
檢索效率優化仍在持續改進中
但隨著技術進展,Graph RAG 極有潛力成為未來企業 AI 知識管理的重要架構。
五、結論
從傳統 LLM 到 RAG,再到進階的 GraphRAG,語言模型技術的演進核心始終圍繞著一個目標:讓模型更準確理解問題,並結合最新、正確的知識提供回應。過去主流的 Fine-tuning 雖具備專業化優勢,但在資料更新速度與訓練成本上的瓶頸,使得研究與應用重心逐步轉向更彈性、即時可更新的 RAG 架構。
而 GraphRAG 則進一步引入結構化知識與語意推理能力,不僅提升回應品質,更代表生成式 AI 朝向「理解關係」與「邏輯推論」的方向邁進。
儘管 GraphRAG 尚處於原型階段,但其潛力已受到各界高度關注。未來生成式 AI 的競爭焦點,將不再只是語言表現,而是誰能有效整合知識、提供可信賴的解答。
💡 Q&A:
為什麼以前chatgpt資料查不到最新的,但現在可以?
因為 OpenAI 新增了「Browser Tool」功能,讓 ChatGPT 能連上網路進行即時查詢。這項功能類似 RAG 的概念:在使用者提問時,ChatGPT 會即時搜尋網站、新聞與文件內容,並融合搜尋結果生成回應,達成與最新資訊同步的效果。。
傳統資料庫&向量資料庫差別差在哪啊 ?
傳統資料庫:傳統資料庫中,文字雖然也是以數字編碼的方式儲存,但這種編碼只是為了「識別」,而非「理解」。
向量資料庫:向量資料庫的核心在於,將文字、圖片、語音等非結構化資料透過模型轉為「向量」,這些向量能保留語意資訊,讓系統具備「模糊比對」與「語意搜尋」的能力。
為什麼需要向量數據庫呢?
因為當你想讓 AI「看得懂」資料、並根據語意找出相關資訊時,傳統資料庫根本做不到這件事。向量資料庫是 AI 理解世界的基礎結構,尤其是像 RAG(檢索增強生成)這種需要語意檢索的流程中,少了向量資料庫,就無法進行有效的資料匹配與生成輔助。
Comments