你聽過 LLM、RAG、Prompt 嗎?一文帶你看懂生成式 AI 常見技術詞彙

你聽過 LLM、RAG、Prompt 嗎?一文帶你看懂生成式 AI 常見技術詞彙

前言

生成式 AI 已經不再是工程師領域才會使用的名詞,它正在滲透到我們的日常生活中,只要你有在使用 ChatGPT、Grok、Midjourney 等這類工具的話,這些技術名詞就會有機會出現在你的世界中,如果你是一名工程師,那麼我更推薦你應該要理解這些名詞,因為未來的開發上,工程師肯定會更依賴這些技術來開發出更好的產品。

這些是什麼?

  • NLP
  • LLMs
  • GenAI
  • RAG
  • Prompt
  • Fine Tuning
  • Function Calling
  • MCP
  • AI Agent

上面所提到的名詞,都是生成式 AI 領域中常見的詞彙,這些詞彙簡單來講就是為了讓我們好去形容與理解它們,但這些畢竟是技術名詞,對於一般人來說,可能會有些難以理解,這篇文章就會針對這些名詞做一個簡單的介紹,讓你能夠更了解這些名詞的意思。

NLP

NLP(Natural Language Processing,自然語言處理)是一種讓電腦能理解人類語言的技術。

所以我們簡單理解起來 NLP 就是…

『讓電腦可以理解人類語言的能力』

為什麼要特別這樣做呢?其實人類的語言是非常的複雜,舉例來講:

「我去方便一下!」

「我吃一下方便麵~」

「方便打擾你一下嗎?」

這三句話我們可以看到「方便」這兩個字在不同的情境下就有不同的意思,就連我們自己人類都會搞混了,更何況是原本只能處理程式邏輯、毫無語言理解能力的電腦呢?

所以 NLP 核心精髓就是先讓電腦可以學會「理解」人類的語言,在轉換成電腦可以理解的語言,這樣才能讓電腦可以更好的理解我們的需求,進而做出我們想要的事情。

因此 NLP 是生成式 AI 的基礎,沒有 NLP 就不會有 LLMs、RAG 等等的技術。

實際上來講,你也已經有使用過 NLP 的記述了,例如…

  • Google Translate(Google 翻譯)
  • Siri
  • 客服機器人

這些都是基於 NLP 的應用,能夠幫助我們更有效地與技術互動。

LLMs

相較於 NLP,LLMs 可以說是更上一層樓的技術,LLMs 是 Large Language Models 的縮寫,中文譯為大型語言模型,讓電腦理解語言的進階技術

那麼 LLMs 和 NLP 有什麼不同呢?

簡單來講,後者(NLP)是提供了電腦一個基本理解人類語言的能力,但是前者(LLMs)就不同了,因為我們提供了相當大量的文獻、資料讓電腦去學習,這使得電腦再回覆上可以更精準的滿足我們的需求。

如果以比較生活面來講,NLP 我們在學校就像是學習 ㄅ、ㄆ、ㄇ、ㄈ or A、B、C、D,這些都是語言的基本能力,然後懂的一些基本的單字、詞彙,例如前面所提到的「方便」這個字。

而 LLMs 則是像我們在學習文法、語意一般,可以更精準的理解我們所要表達的意思,並且能夠更好的回覆我們的問題,而不會陷入「方便」有三種意思,這個人累到底在指什麼?

所以 LLMs 是透過大量的資料訓練,學習語言的結構和語境,進而提升其理解和生成文本的能力。

GenAI

GenAI 其實也是縮寫,完整寫法是 Generative AI,中文譯為生成式 AI,這個名詞應該會比較廣泛也比較常聽到,畢竟身為這個世代的人們肯定有聽過 ChatGPT 這個單字,而 GenAI 就是在指這些大型語言模型(LLMs)所產生的內容。

所以 GenAI 是什麼呢?簡單來講它是基於 LLMs 的技術再加上其他的技術,讓電腦可以生成出我們想要的內容,例如文字、圖片、音樂等等。

如果你有使用 ChatGPT 的話,你應該有注意到所謂的「生成式」其實是指,它不是像傳統聊天機器人一樣從固定回應中選擇一個回答,而是「從零生成一段全新內容」。

畢竟以目前的 AI 技術來講,比較偏向我們引導 AI 去「產生」出我們想要的內容,而不是讓 AI 自主產生內容,如果能夠做到自主產生的話,就代表 AI 已經有了自己的意識了,這樣的話我們就不需要再去引導它了。

也代表人類應該要開始擔心了

RAG

RAG 是 Retrieval-augmented generation 的縮寫,中文是檢索增強生成,雖然 LLMs 已經非常的強大了,但 LLMs 仍然有一些限制,最明顯的就是資料的限制

什麼意思呢?前面有提到 LLMs 是透過大量的資料所訓練出來的,但是我們的資料每分每秒都在不斷增加與更新,那這種狀況下 LLMs 就會有一個問題存在,也就是

「資料過時。」

就跟我們在學校上課時,學校總是有一套教材讓你學習,但這些教材往往都跟不上時代不符合業界所需,變成你必須要額外自行學習、Google 搜尋資料,這樣才有辦法跟上時代的腳步。

哎?等一下,上面那一段描述其實我就已經講到了 RAG 的概念了,也就是「額外自行學習、Google 搜尋資料」這個概念,RAG 就是讓 LLMs 可以透過檢索資料來增強生成的能力,這樣就可以讓 LLMs 在生成內容時,可以套用最新的資料,讓生成的內容更符合當前的需求。

RAG 的概念其實是非常簡單的,還沒有 RAG 之前,流程會像這樣:

  • LLMs 是 2023 年的資料
  • 你詢問 LLMs 一個問題是關於 2025 年的資料
  • LLMs 回覆的內容是 2023 年的資料,或者跟你說「我不知道」

但如果套用了 RAG 的話,流程就會變成這樣:

  • LLMs 是 2023 年的資料
  • 你詢問 LLMs 一個問題是關於 2025 年的資料
  • LLMs 會去檢索最新的資料(例如 Google 搜尋)
  • LLMs 將檢索到的資料與 2023 年的資料結合
  • LLMs 回覆的內容是 2025 年的資料

所以其實 RAG 就是一個資料搜尋的概念,它讓 LLMs 更進一步的強化本生的生成能力,進而解決資料過時的問題。

畢竟每次訓練一個新的 LLMs 都是需要花費大量的時間與金錢的,所以 RAG 可以有效地減少這些成本,讓開發者能夠更專注於創造與應用 AI 技術。

Prompt

Prompt 是一個非常重要的概念,這個中文意思是提示詞的意思,有些人會稱之為「詠唱」、「咒語」等等,這些其實都在講同一件事情,但這個 Prompt 卻也非常的重要,因為它是讓 LLMs 理解我們需求的關鍵。

那 Prompt 如果要用比較生活化來舉例的話,你可以想像成你爸媽要交代事情給你時,會跟你說清楚你要幹嘛,例如今天你爸媽要請你去超市買菜

「你幫我去超市買菜。」

這時候你肯定會想說:「買什麼菜?要去哪裡買?要幾點去買?」等等的問題,然後你就很難達到對方期望的需求。

如果今天你爸媽是跟你說

「你下午三點時,幫我去愛國超市買一把青江菜。」

這樣的話,你就會知道要去哪裡買、要幾點去買、要買什麼菜,這樣就能夠更好的滿足對方的需求了。

而這個概念就是 Prompt 的概念,你如果可以把 Prompt 寫得越清楚、越詳細,那麼 LLMs 就能夠更好的理解你的需求,進而產生出你想要的內容。

這也是為什麼近期會出現 Prompt Engineer 這個職業,因為 Prompt 寫得好壞會直接影響到 LLMs 的生成內容,所以 Prompt Engineer 就是專門負責寫 Prompt 的人,讓 LLMs 可以更好的理解我們的需求。

除此之外,也因應這需求而誕生新的攻擊手法,稱之為「Prompt Injection」,這個攻擊手法是透過在 Prompt 中注入惡意的內容,讓 LLMs 產生出我們不想讓使用者看到的內容,這樣的攻擊可能會導致錯誤的資訊或不當的回應出現,因此為了防範 Prompt Injection,開發者通常會限制模型能存取的指令範圍,或對使用者輸入進行過濾處理。

如果你對 Prompt Injection 有興趣的話,且想嘗試練習的話,你可以參考這篇文章:有趣的小遊戲 - Gandalf Adventures 之 prompt injection 攻略

Fine Tuning

Fine-tuning 中文叫做微調,就是針對已經訓練好的 LLMs 在更近一步的訓練,這樣可以讓 LLMs 更符合我們的需求,這個概念其實就像是我們在學校上課一樣,老師會針對我們的程度來調整課程內容,讓我們能夠更好的理解與學習。

所以 Fine-tuning 基本上就是針對 LLMs 進行再訓練的過程,如果用比較生活面來舉例來講的話,你可以想像成有一位大學生他畢業了,但是他修了科系是電機、資管、外語這三大系,但是你期望他可以專精於電機系,所以你特別再送他去上電機系的課程,這樣他就能夠更好的理解電機系的內容了。

這樣做可以讓原本已經懂三門科系的學生,對於電機系的內容更精通,這樣就能夠更好的滿足我們的需求了。

只是這邊要注意使用 Fine-tuning 的話,基本上成本會貴上 5~6 成以上唷。

Fine-tuning 適合中大型企業或開發者,當你想要打造一個「具備企業內部語言與風格」的模型時,例如:一個專門回覆保險條款的客服模型。

相比之下,小型應用可以考慮用「RAG + Prompt 設計」的方式來達成類似效果,成本更低。

Function Calling

簡單來講 Function Calling 就是讓 LLMs 可以直接調用函式的能力,這樣就可以讓 LLMs 在生成內容時,可以直接調用函式來獲取資料,這樣就可以更快速的滿足我們的需求。

運作概念其實就是將我們的自然語言送給 LLMs,接著 LLMs 分析完畢後,認為你是在問「天氣」的問題,那它就會去呼叫相應的函式來獲取最新的天氣資訊。

這樣我們就可以直接呼叫特定的函式來獲取並回傳資料,而不是透過 LLMs 的內部邏輯來推斷,而只是把 LLMs 充當一個中介角色,幫助我們分析使用者的需求。

Function Calling 並不是讓 LLMs「學會寫程式」,而是讓模型可以根據你輸入的語句,自動挑選一個 API 函式來調用,並將參數以 JSON 格式傳回,供後端執行邏輯或查詢資料庫。

AI Agent

AI Agent 是一個非常有趣的概念,中文叫做 AI 代理人,什麼意思呢?

前面我們不是介紹了 GenAI 嗎?但是 GenAI 只是單純依照我們所提出的需求去生成我們要的內容,但它並沒有辦法直接幫我們做某些事情,變成 GenAI 生出結果後,我們還是要手動做一些事情。

舉例來講,我們今天問了 ChatGPT 一個關於 Excel 公式的問題,雖然 ChatGPT 可以幫我們生成出公式,但我們還是要手動去 Excel 中輸入這個公式,這樣才會有辦法運行。

但如果今天是 AI Agent 的話,它就會在我們問完問題後,自動地幫我們在 Excel 中輸入這個公式,並執行它,這樣就能夠更快速地得到結果了。

不好懂嗎?更簡單來講就是你會看到你的電腦自己在運行一些程式,感覺就像有人遠端控制你的電腦一樣,這個概念就是 AI Agent 的概念。

AI Agent 背後通常結合了 LLMs、工具調用(Function Calling)、記憶體(Memory)與目標導向(Goal Planning)等模組,才能完成「理解任務 → 拆解步驟 → 自動執行」的整個流程。

MCP

MCP 是 Model Context Protocol 的縮寫,中文可譯為「模型上下文協定」,是由 Anthropic 所提出的一項開放標準。

它的目的是讓 LLM 在執行期間,不再只依賴輸入的 Prompt,而是可以動態地查詢外部資料、呼叫工具、甚至與應用程式互動

這個協定定義了一套通用的格式與規則,讓 LLM 可以透過一致的方式,去請求外部的資料或執行任務。

舉例來說,如果你正在開發一個 AI 助手,它透過 MCP 就能:

  • 查詢 Notion 中某份文件的內容
  • 呼叫某個 CRM API 來取得客戶資訊
  • 啟動一段自動化流程來幫你整理表格

MCP 不代表一個特定平台,而是一種溝通協定,讓 AI 模型與各種工具能像插 USB 裝置一樣,接上就能用。這讓 AI 應用不再是「問與答」的模型,而是真正能與環境互動的系統。

總結

最後這邊也提供一下表格讓大家可以快速回顧前面所提到的名詞與定義:

名詞 中文解釋 重點說明
NLP 自然語言處理 讓電腦理解人類語言,例如 Siri、翻譯器等。
LLMs 大型語言模型 在大量資料上訓練,能更深入理解語言和回應。
GenAI 生成式 AI 根據指令,從零「生成」文字、圖片、音樂等內容。
RAG 檢索增強生成 模型在回答前,會先去搜尋最新資料,避免知識過時。
Prompt 提示詞 告訴 AI 你想要什麼,越清楚越能得到好答案。
Fine-tuning 微調 針對特定領域再訓練模型,提升專業度,但成本高。
Function Calling 函式調用 讓模型能直接呼叫 API 或功能,快速拿到最新資料。
AI Agent AI 代理人 自動理解任務、拆解步驟,並操作工具完成事情。
MCP 模型上下文協定 定義一套格式,讓 LLM 動態取資料、用工具、啟動流程。

這一篇算是快速且簡單的介紹一些 AI 概念與名詞,而不是深入了解背後的運作原理以及該如何撰寫。

希望這一篇有讓你對於這些技術名詞有更近一步的認識哩~

Liker 讚賞

這篇文章如果對你有幫助,你可以花 30 秒登入 LikeCoin 並點擊下方拍手按鈕(最多五下)免費支持與牡蠣鼓勵我。
或者你可以也可以請我「喝一杯咖啡(Donate)」。

Buy Me A Coffee Buy Me A Coffee

Google AD

撰寫一篇文章其實真的很花時間,如果你願意「關閉 Adblock (廣告阻擋器)」來支持我的話,我會非常感謝你 ヽ(・∀・)ノ