8000 GitHub - twtrubiks/mcp-vscode-cline: 用 Cline or Claude 在 VSCode 玩轉 MCP
[go: up one dir, main page]
More Web Proxy on the site http://driver.im/
Skip to content

twtrubiks/mcp-vscode-cline

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 
 
 

Repository files navigation

用 Cline 在 VSCode or Claude 玩轉 Model Context Protocol (MCP) 🚀

MCP 到底是什麼? 🤔

MCP 的全名是 Model Context Protocol。簡單說,它就像是 AI 界的 USB Type-C 🔌 ✨

想想看以前,手機、電腦、平板,每種都要不同的充電線和插頭,超麻煩對吧 😩

USB Type-C 出來後,一條線搞定很多事.

MCP 也是類似的概念,它想給 AI 一個通用的溝通方式,讓 AI 可以很方便地去發現、搞懂、然後使用外部的工具或服務。

這樣有啥好處? 💡

開發者就不用再為了接不同的 AI 或工具,一直去研究那些 API 參數。

而且,AI 自己也能更聰明,看情況決定要用哪個工具來幫忙.

MCP 跟 Function Calling 有啥不同?

你可能聽過 Function Calling( N8N 的 AI Agent 比較類似這個),那也能讓 AI 去叫外面的功能。

但 MCP 又更靈活一點!

Function Calling 通常是你得先告訴 AI 有哪些功能可以用,像個菜單一樣。

但 MCP 更像是讓 AI 自己主動去看看周圍 (Context) 有哪些工具可以用,然後自己決定要怎麼用。

流程圖

下面這張圖,大約就是你在 VSCode 用 Cline 跟 AI 聊天時,背後 MCP 在忙什麼:

graph LR
    A[使用者在 VSCode 中 <br> 透過 Cline 輸入指令] --> B[大型語言模型<br>接收指令]
    B --> C{AI 需要外部工具<br>或資訊?}
    C -- 是 --> D["AI 透過 MCP<br>找可用的工具"]
    D --> E[AI 選擇合適的工具<br>並透過 MCP 呼叫]
    E --> F[外部工具/伺服器<br>執行任務]
    F --> G[AI 接收工具<br>回傳的結果]
    C -- 否 --> G
    G --> H[AI 整合資訊<br>產生最終回覆]
    H --> I[結果顯示在<br>VSCode Cline 介面中]
    style A fill:#f9f,stroke:#333,stroke-width:2px
    style I fill:#ccf,stroke:#333,stroke-width:2px
    style C fill:#f9d,stroke:#333,stroke-width:2px,shape:diamond
    style D fill:#9cf,stroke:#333,stroke-width:2px
    style E fill:#9cf,stroke:#333,stroke-width:2px
    style F fill:#9cf,stroke:#333,stroke-width:2px
Loading

Cline

透過 Cline, 其實就是一個 VSCode 的擴充功能

目前已經很非常多 awesome-mcp-servers

很多 MCP 的工具或伺服器都是用 Python 或 Node.js 寫的, 所以建議大家可以先安裝.

MCP Server 就是在你的本機運行一些程式,

alt tag

Cline 取得「大語言模型決定」後,用這個決定作為依據,再去呼叫 MCP Server.

整理一下,

MCP Host 是 VSCode

MCP Client 是 Cline

MCP Server 是 本機運行的程式

如果你想加入, sse 的遠端 server, 直接將 URL 貼到 Remote Servers 即可.

alt tag

安裝 Node.js

下載 Node.js

# 下載並安裝 nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash

# 下載並安裝 Node.js:
nvm install 22

# 核對 Node.js 版本:
node -v # 應會印出 "v22.14.0"。
nvm current # 應會印出 "v22.14.0"。

# 核對 npm 版本:
npm -v # 應會印出 "10.9.2"

Claude

Linux 目前只有社群維護的版本 claude-desktop-debian

如果你想要用它連結你的遠端 MCP Server,

請到 ~/.config/Claude/claude_desktop_config.json 設定

{
  "mcpServers": {
    "n8n mcp": {
      "command": "npx",
      "args": [
        "-y",
        "supergateway",
        "--sse",
        "https://xxxxxxx/mcp/xxxxxxxxx/sse"
      ]
    }
  }
}

使用的概念是 supergateway - sse--stdio

接著重新啟動 Claude, 如果都設定正確

alt tag

MCP Server

Context7

告別 AI 瞎猜! Context7 MCP 搭配 .clinerules 優化 Prompt,精準生成 Odoo 18 Addon 實戰

官網使用可以到 context7

Context7 MCP:為你的 AI Prompt 提供最新的程式碼文件

【問題:沒有 Context7 時 ❌】

大型語言模型 (LLM) 在回答程式碼相關問題時,常常依賴過時或通用的訓練資料,導致:

❌ 程式碼範例過時,基於一年前的舊資料。 ❌ 產生出根本不存在的幻想 API。 ❌ 針對舊的軟體包版本,給出通用或不適用的答案。

【解決方案:使用 Context7 時 ✅】

Context7 MCP 能直接從原始來源抓取最新、針對特定版本的文件和程式碼範例,並將這些最新資訊直接放入你提供給 AI 的 Prompt (提示語) 的上下文中。

VS Code MCP 設定 Context7 MCP

{
  "servers": {
    "Context7": {
      "type": "stdio",
      "command": "npx",
      "args": ["-y", "@upstash/context7-mcp@latest"]
    }
  }
}

使用 Cline + Odoo 18 + gemini-2.0-flash-001 來實戰一下,

這邊除了用 Context7 之外, 還會使用 Filesystem MCP Server.

直接把我們的需求全部給 Cline 不切實際, 效果也不好, 透過 .clinerules 來改善這個問題

設定的位置在這邊

img

範例可參考 .clinerules 資料夾底下

.clinerules/00-doc.md - 請它用 Context7 先閱讀文件, 避免幻覺.

.clinerules/01-logic.md - 定義他的邏輯.

接著直接給 Cline 下 Prompt

先閱讀文件 再開發 addons

如果在執行中, 你想要讓 Cline 自動一直執行下去, 不要每次都一直和你要求允許,

點擊打勾這個圖示, 右邊的 autoApprove 就會填入對應的事件 type, 之後遇到相同的就會跳過去了

img

Donation

文章都是我自己研究內化後原創,如果有幫助到您,也想鼓勵我的話,歡迎請我喝一杯咖啡 😆

綠界科技ECPAY ( 不需註冊會員 )

alt tag

贊助者付款

歐付寶 ( 需註冊會員 )

alt tag

贊助者付款

贊助名單

贊助名單

License

MIT license

About

用 Cline or Claude 在 VSCode 玩轉 MCP

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

0