首頁/全部文章
INDEX · ALL ARTICLES

全部文章.85

隨著主題深入 AI,跟著系列學習 AI,從觀察中發現 AI。

主題
系列
85篇文章 · 依發布日期降冪排序
2026
2026.05.09
給工具使用者
我為什麼把這 7 個東西都寫成 Skill——一個 PM 的客製化判斷
Claude Code 的客製化機制有 5 層——CLAUDE.md、Skill、Subagent、Hook、 […]
SERIESClaude Code 工作術
2026.05.09
給工具使用者
Claude Code 不是更強的補全——它跑的是會自己驗證的 Agent 迴圈
Claude Code 跟 Cursor、Copilot 看起來像同一類工具,用過之後會發現它根本是另一種東西 […]
SERIESClaude Code 工作術
2026.05.08
給工具使用者
Context 才是 Claude Code 的稀缺資源
用 Claude Code 用一陣子之後常會發現它越用越笨——但多半不是模型變差,是 context wind […]
SERIESClaude Code 工作術
2026.05.05
給工具使用者
Claude 怎麼接到你的工作世界?Connector、Enterprise Search、Research 三種機制
摘要:「Claude 能用來做什麼」跟「Claude 能碰到什麼資料」是兩回事。Connector 把 Cla […]
SERIESClaude Code 工作術
2026.05.05
給工具使用者
Claude 是什麼?三種介面、三種組織方式,搞懂這個 AI 工作平台
摘要:多數人把 Claude 當成一個聊天機器人,這個比喻漏掉了 Claude 真正的設計重點。它不只是一個聊 […]
SERIESClaude Code 工作術
2026.04.21
給決策評估者
AI 工具會來來去去,真正該設計的是底下的資料庫
花一整天調查 AI Agent 架構,被自己的提問推了三次轉向,命題從「選哪種架構」升級到「設計一個不被工具綁住的個人知識系統」。完整記錄三次認知轉向、我歸納的四層架構(Markdown + Obsidian + MCP + AI 工具層)、以及三步執行方向。
SERIES
2026.03.25
給系統設計者
AI 系統做完了然後呢?從 UAT 到 Rollout 的導入實戰紀錄
大部分 AI 專案死在導入階段,不是技術階段。這篇記錄一套跨語言社群分析系統從 UAT(7 項測試 4 通過 2 不通過)到三階段 Rollout 規劃的完整過程。附 Adoption Metrics 框架和五份操作文件清單。
SERIESAI 系統實戰
2026.03.25
給系統設計者
AI 專案撞牆紀錄:零成本社群監測的天花板在哪裡
跨語言社群聲量分析系統跑通了 pipeline,但社群媒體只拿到 6 則可信資料。系統性診斷後發現:蒐集層的天花板是結構性限制,不是搜尋策略問題。研究業界做法後重新定位系統價值:分析和洞察層已驗證品質,蒐集層是可替換的模組。
SERIESAI 系統實戰
2026.03.25
給系統設計者
AI 系統架構設計:為什麼我選純 API 不用 Agent 框架
跨語言社群聲量分析系統的架構設計紀錄。評估 CrewAI、LangGraph 後選擇純 Claude API + Python,因為線性流程不需要框架的複雜抽象。附資料來源技術限制調整、水軍過濾機制設計、技術風險評估。
SERIESAI 系統實戰
2026.03.25
給系統設計者
不懂當地語言怎麼做海外市場?一個品牌人的 AI 解決方案拆解
品牌負責人不懂當地語言,怎麼掌握海外市場情報?從 As-is 流程的五個斷裂點、問題本質的三個缺口,到 AI 介入點定義和 MVP 切分的完整需求拆解紀錄。附產出品質對比和四個成功指標。
SERIESAI 系統實戰
2026.03.24
給決策評估者
企業導入 RAG 完整實戰指南 — 從「要不要做」到「做完怎麼評估」
企業評估 RAG 導入的完整流程:200 份文件、五組對照實驗、從 Context Stuffing 93 分到 RAG 88 分的數據解讀。結論:小資料集不需要 RAG,大規模才是 RAG 的價值所在。附六個技術決策 trade-off、品質診斷方法論、不同規模下的最佳方案選擇。
SERIESRAG
2026.03.24
給系統設計者
RAG 優化實戰:Query Rewriting 怎麼把分數從 77 拉到 88
RAG 系統從 77 分優化到 88 分的完整記錄。Query Rewriting 讓 Retrieval Failure 減少 60%、Type A 達到滿分 5.00。六方比較表顯示 RAG v2 追平 Context Stuffing,但能處理 3.8 倍資料量。附優化決策過程和 20 題樣本局限性分析。
SERIESRAG
2026.03.24
給系統設計者
RAG 系統的 77 分怎麼來的?一次完整的 Retrieval 品質診斷
逐題標記 100 個 chunks 的檢索相關性,發現 60% 品質問題來自 Retrieval、Generation Failure = 0。Retrieval Precision 從 Type A 的 36% 降到 Type C 的 16%,Hybrid Search 互補效果只在 40% 題目有效。附三大優化方向和理論上限推導。
SERIESRAG
2026.03.24
給系統設計者
RAG 實測:用 200 份文件跑出來的數據,跟你想的不一樣
用 200 份文件跑四組對照實驗:Context Stuffing 14 檔 88 分、64 檔 93 分、關鍵字搜尋 59 分、RAG Hybrid 77 分。RAG 用 2% 資訊量達到 83% 效果,是唯一能處理 462K tokens 規模的方案。附不同規模下的最佳方案選擇指南。
SERIESRAG
2026.03.24
給系統設計者
建一條 RAG Pipeline 之前,你需要做的六個技術決策
從 Chunking 策略到 Top-K 設定,建 RAG pipeline 的六個關鍵選型決策完整記錄。每個決策寫清楚考慮了什麼、選了什麼、為什麼、犧牲了什麼。用 200 份中英文混合文件的實際數據驗證,附 pipeline 效能指標。
SERIESRAG
2026.03.24
給決策評估者
你的資料真的需要 RAG 嗎?三組 Baseline 實測告訴你
200 份文件的知識庫,該不該用 RAG?實測三組 baseline:Context Stuffing 14 檔 88 分、64 檔 93 分、關鍵字搜尋 59 分。結論:小資料集不需要 RAG,但關鍵字搜尋的語義歧義讓跨文件問題崩壞到 1.80 分。附人工覆核驗證和 token 計算。
SERIESRAG
2026.03.24
給系統設計者
RAG 之前你該知道的事:四種資料檢索方法完整比較
用白話拆解四種資料檢索方法的原理和 trade-off:向量搜尋靠語義、BM25 靠精確匹配、Hybrid Search 兩者互補、知識圖譜做多跳推理。大部分企業場景用 Hybrid Search 就夠了。附選型建議和常見問題。
SERIESRAG
2026.03.22
給觀察者
NVIDIA OpenShell:讓自主 AI Agent 安全執行的三層架構
NVIDIA 推出 OpenShell,作為 NemoClaw 開源堆疊的治理層,專門解決自主 AI Agent 在安全、能力、自主三者之間的根本矛盾。核心設計是「程序外政策強制執行」,把安全限制放在 Agent 執行環境之外,讓 Agent 就算遭到 prompt 注入攻擊也無法繞過。三層架構(沙箱、政策引擎、隱私路由)分別對應技能隔離、行為管控、資料分流三個面向,相容 OpenClaw、Claude Code、Codex、Cursor,零程式碼修改即可部署。
SERIES
2026.03.22
給系統設計者
用 Multi-Agent 架構管理企業內容生產:三個 AI Agent 的分工設計實錄
設計三個專職 AI Agent 處理企業內容生產:文章寫手、網路資訊專家、網站架構師。單篇產出從 3-6 小時壓縮到 30-60 分鐘,從素材到上線全流程自動化。完整拆解 Agent 拆分邏輯、人機分工邊界、AI 填補偵測機制,以及實際踩過的坑。
SERIESAI 工具與架構
2026.03.22
給決策評估者
8 萬人告訴 Anthropic 他們想從 AI 得到什麼 — 答案不是「更多生產力」
Anthropic 對 159 國、81,000 名 Claude 使用者進行史上最大規模 AI 質性研究。67% 持正面態度,但最深刻的發現是:人們同時抱持期待與恐懼,受益最多的使用者也最擔心依賴。開發中國家比已開發國家更樂觀,因為 AI 是繞過資源門檻的均衡器。前四大需求加總超過 57%,指向同一件事 — 人們不想用 AI 做更多事,而是少做不重要的事。
SERIES
已顯示 20 / 85