用 Claude 做 SEO 與 AEO 策略的關鍵,是把它當策略夥伴而不是寫稿機器。 一位非工程師背景的 Agensi.io 創辦人 2026 年 4 月在 r/ClaudeAI 公開拆解了他的工作流:把 Google Search Console、Ahrefs、GA4 的數據餵進 Claude 做缺口分析、自己重寫文章結構讓 ChatGPT 與 Perplexity 主動引用、用 Claude 修 Core Web Vitals 把 LCP 從 2.5–4 秒壓到 0.9 秒。創辦人自述六週內把產品從零做到 10,000 活躍用戶、廣告預算為零、單月 30 萬次搜尋曝光、348 次 AI 引擎引導的訪問。這套打法的真正價值在於把 AI 從生產線員工提拔成決策層。
從零到 10,000 用戶的六週路徑:原始案例的關鍵數據
Agensi.io 是一個 AI Agent skill 市集(賣 SKILL.md 規格的可重複使用 agent 技能)。創辦人自述他不是工程師,前端用 Lovable 搭,內容、SEO、技術架構全部由 Claude 主導。下面是他在貼文中分享的成績單:
| 指標 | 起點 | 6 週後 | 變化幅度 |
|---|---|---|---|
| 文章總數 | 0 | 96 篇 | — |
| 每週 Google 點擊 | 5 | 1,000+ | 200 倍 |
| 月搜尋曝光 | 微量 | 300,000 | — |
| Page 1 排名關鍵字 | 0 | 878+ | — |
| AI 引擎引導的月 session | 0 | 348 | — |
| 桌機 LCP(最大內容繪製) | 2.5–4 秒 | 0.9 秒 | -64% 至 -78% |
| Mobile logo 大小 | 179KB | 7KB | -96% |
| PageSpeed 效能分數 | ~70 | 97 | +27 點 |
| 廣告預算 | $0 | $0 | — |
這些數字是創辦人自述,沒有第三方驗證;但工作流本身有獨立可複製的架構,這才是值得拆解的部分。值得複製的是他指揮 Claude 的方式,網站本身的市場條件每家公司各異。
Claude 在 SEO 工作流的真正角色:策略長,不是寫稿工
多數人把 Claude 當寫稿機器,丟一個主題進去要它輸出文章。創辦人說這種用法產出的是「沒人讀、Google 也不排名的 AI slop」。他的做法相反:自己先把 Search Console 全套查詢資料、曝光數、點擊率、平均排名匯出,餵進 Claude,要它做三件事:
第一,找出曝光高但點擊為零的查詢,這通常代表標題或 meta description 沒抓住意圖。第二,找出對手有內容但你沒有的主題缺口。第三,揪出自己網站多個頁面互打(cannibalization)的同義關鍵字。Claude 在這三件事上比人快也比人準,因為它能一次處理整張試算表。
定義好缺口後,每篇文章的結構由 Claude 與創辦人共同迭代出一套樣板:
文章頂端 40–60 字的 Quick Answer block 直接回答主問題;H2 改用問句而非名詞片語(不是「Claude Code Skill Locations」而是「Where Does Claude Code Store Skills?」);該比較的地方用比較表;結尾接 FAQ 與內部連結。這套結構同時對應 Google AI Mode 的概念連結邏輯,因為 Gemini 3 在組答案時會優先抓問句格式的段落。
| 寫稿任務 | 一般 AI 寫法 | Claude 當策略長的寫法 |
|---|---|---|
| 主題決定 | 主觀挑、跟風 | 從 GSC 缺口分析倒推 |
| 標題撰寫 | 通用模板 | 根據實際曝光-點擊比迭代 |
| 結構規劃 | 由文章本身發散 | 對齊 AI Overview 引用偏好 |
| 改稿迴圈 | 改文字風格 | 改結構、補 entity、調 schema |
| 成效衡量 | 流量數字 | 引用次數、AI referral session |
這個差別不是抽象的。創辦人提到他發現有 121 個查詢自家網站排在第 1–3 名,點擊卻是零。原因是 AI Overview 把流量截走了。這個洞察直接改變整個策略:從追排名轉為追「成為 AI Overview 引用的來源」。
AEO 基礎建設:把網站從 SEO 站變成 AI 引擎引用的來源
創辦人用 Claude 重新設計了整套 Answer Engine Optimization 架構,目標是讓 ChatGPT、Perplexity、Gemini、Claude 自己被問到「哪裡可以找 SKILL.md skill」時,主動回答 agensi.io。具體做法分四層:
第一層:每一頁都加 schema markup。 首頁掛 Organization、WebSite with SearchAction、FAQPage 三種 schema;個別 skill 頁加 SoftwareApplication(含定價)、BreadcrumbList、條件式 FAQPage;文章頁是 Article + FAQPage + HowTo + BreadcrumbList + Organization;/about 頁掛 Organization + AboutPage + Person 做 entity anchoring。這套 entity anchoring 的目的就是讓 LLM 在算「品牌存在感」時有可信賴的結構化來源。
根據 ALM Corp 引用的多份 2025–2026 年研究,FAQPage schema 在實作正確的前提下能讓 AI 引用率提升超過 20%,而 88% 的 Google AI Overview 至少引用 3 個來源。意思是「成為其中一個」遠比「成為 #1 排名」可達成。
第二層:H2 全部改寫成問句。 因為 AI Overview 在抓 sub-query 答案時偏好從問句格式的區段抽段。
第三層:robots.txt 明確允許所有 AI 爬蟲,並放一份 llms.txt。 這層需要說一個不太討好的事實:根據 ALLMO.ai 對 94,614 個 AI 引用 URL 的分析,只有 1 個來自 /llms.txt 路徑;AEO Engine 對 500 個網站的研究也顯示 llms.txt 檔案存在與 AI 引用之間零相關。Search Engine Land 訪問的 9 個案例中 8 個 llms.txt 上線後流量沒變動,Google 的 John Mueller 也公開表示「沒有任何 AI 服務聲稱用 llms.txt」。
但這不代表不該做。Anthropic 的 Claude、Perplexity、部分 ChatGPT 實作確實會讀取 llms.txt;fast.ai 創辦人 Jeremy Howard 在 2024 年提出這個提案後,業界仍在實驗中。創辦人的判斷是:成本只要一個小時、一個檔案,就算機率小也值得做。這是一個「下行成本接近零、上行成本可能很高」的低成本對沖。
第四層:FAQ schema 寫進每一頁。 這層的功能性目的是讓 Google 的 AI 抓 Q&A 時有結構化來源可吃。創辦人後來還發現一個血淋淋的 schema bug:React component 客戶端輸出 FAQPage schema、SSR edge function 伺服器端也輸出,造成 90 頁同時掛兩份重複 schema,GSC 直接報錯。Claude 找出問題、寫出 Lovable prompt 修復、用 curl 驗證的整個迴圈大概一個下午就跑完。這類技術細節是 GEO 跟傳統 SEO 最大的分水嶺。
Claude 當技術 SEO 稽核員:Core Web Vitals 與結構化資料偵錯
每週把 GSC、Ahrefs、GA4 的數據匯出後丟進 Claude,創辦人說 Claude 找到的問題人眼根本看不出來。三個具體案例:
案例一,標題沒撐住流量。 一篇「best claude code skills 2026」的文章累積 25,000 次曝光、29 次點擊。Claude 把標題改成「15 Best Claude Code Skills in 2026 (Tested & Ranked)」,CTR 在改寫後逐步爬升。差別在於原版本沒給「具體數量、可驗證承諾、時間錨點」這三個 LLM 與真人都偏好的訊號。
案例二,18 篇文章根本沒被 Google 索引。 Claude 直接生成 IndexNow ping 指令、列出需要在 GSC URL Inspection 觸發重新爬取的清單,整個批次處理大約半天結束。
案例三,桌機 LCP 撐到 4 秒、190 個 URL 受影響。 Claude 鎖定三個原因:460KB 的 eager JS bundle、framer-motion 為了一個 mobile menu 動畫在每頁都載入、analytics script 是同步的。寫好對應的 Lovable prompt 後,桌機 LCP 從 2.5–4 秒降到 0.9 秒、效能分數從 ~70 拉到 97。
行動裝置端問題更具體:LCP element 是一張 1920×1920 的 179KB PNG logo,但用 112px 渲染。更糟的是它是用 JS module 匯入,瀏覽器要等整個 JS bundle parse 完才能開始下載。Claude 的解法:產 WebP(7KB 與 3KB 兩個尺寸)、改用 static path 加 preload、把 navbar search 跟 dropdown component 改成 lazy load。Logo 從 179KB 變成 7KB,是 96% 的削減。技術 SEO 不會出現在部落格成果表上,但它是讓你不被淘汰的基礎工程。
2026 年 AI 搜尋的市場現實:你不能只追排名了
創辦人那 121 個排名前三、點擊為零的查詢不是個案。把鏡頭拉遠看 2025 年底到 2026 年初的市場數據,傳統 SEO 的單一信仰已經崩盤:
| 指標 | 2024 / 2025 上半 | 2026 Q1 | 來源 |
|---|---|---|---|
| AI Overview 觸發率(美國) | 6.49%(2025/01) | 25.8%–60% | Stackmatix、Averi |
| 資訊型查詢觸發 AI Overview 比例 | — | 39.4% | Stackmatix |
| B2B 科技查詢觸發 AI Overview 比例 | — | 70% | Stackmatix |
| Top-10 頁面在 AI Overview 引用占比 | 76% | 38%(跌到 17% per BrightEdge) | Ahrefs 863K 關鍵字研究 |
| Position-1 organic CTR 在 AI Overview 出現時 | — | 下跌 34.5% 至 58% | Seer Interactive、Ahrefs、ArcInterMedia |
| 被 AI Overview 引用的網站點擊 | — | +35% | Averi |
| AI 來源訪客轉換率 vs 一般 organic | 2.8% | 14.2%(5 倍) | Averi |
| AI Overview 引用 3+ 來源的比例 | — | 88% | Heroic Rankings |
把這幾個數字疊在一起,故事很清楚:Google 已經不是把流量導向第一名,而是合成 3–5 個來源後給答案,再附引用連結。 47% 的 AI Overview 引用來自排名第 5 名以下的頁面,意思是傳統 SEO 那套「衝到 #1」的單線思維在資訊型查詢上已經不再是壓倒性優勢。
更殘酷的是 Gartner 的 2026 預測:到年底前,25% 的 organic 搜尋流量會轉移到 AI 聊天機器人與語音助理。這屬於結構性遷移層級的轉變,不是單一演算法更新。台灣 B2B 科技公司尤其要警覺,因為 70% 的 B2B 科技查詢已經會觸發 AI Overview,這比一般電商查詢的 4% 高了 17 倍。
把這個轉變放到時間軸上看更清楚:2026 年 1 月 27 日 Google 把 AI Overview 後端升級到 Gemini 3。Ahrefs 的 863,000 關鍵字研究就在那波升級後做的,這也解釋了為什麼 Top-10 引用占比從 76% 跌到 38% 是七個月內發生的——演算法換代後,AI 不再優先吃 Google 排名靠前的頁面,而是依 entity 完整性、schema 結構、E-E-A-T 訊號重新打分。
給台灣團隊的可複製框架:四個 Sprint
把創辦人的工作流抽成一套不依賴特定工具的框架,分四週執行:
Sprint 1(第 1 週):診斷層。 把 Google Search Console 過去 12 個月的查詢資料、Ahrefs Site Explorer 的競品對比、GA4 的流量歸因匯出成 CSV,餵進 Claude,要它做三件事:找曝光高點擊低的查詢、找對手有你沒有的主題缺口、找自家網站關鍵字互打的頁面。輸出一份按優先級排序的待辦清單。
Sprint 2(第 2–3 週):內容重構層。 從清單最高優先級的 10 篇開始,按 Quick Answer block + 問句 H2 + 表格 + FAQ 的樣板重寫。每篇至少 5 組可驗證數據、2 位具名引用、1 個比較表。同時把 FAQ 內容對應寫進 FAQPage schema(記得包成 <script type="application/ld+json"> 標籤)。
Sprint 3(第 3 週):基礎建設層。 完成 robots.txt、llms.txt、Organization schema、Article schema、BreadcrumbList、HowTo schema 全套部署。/about 頁加 Organization + AboutPage + Person 做 entity anchor。這層工程的目的是建立網站作為實體(entity)的可信賴度,而不只是頁面層級的優化。
Sprint 4(第 4 週):監測層。 在 GA4 建一個 custom channel group,用 regex 把 chatgpt.com、perplexity.ai、claude.ai、gemini.google.com 等流量從 Referral 拆出來,放在 Referral 之上(GA4 是 waterfall 計算,順序錯了 AI 流量會被 Referral 吃掉)。同時設一個 Looker Studio dashboard 追三個 KPI:AI referral session 數、被 AI Overview 引用的查詢數、Page-1 關鍵字數量。
四週後不會直接複製出 10,000 用戶,但會建立一個能持續擴張的引擎。2025 年下半到 2026 年的 GEO 戰局已經明確:誰先把 entity 信號、結構化資料、答案優先內容三件事做齊,誰就在下一輪 AI 流量重分配中佔位。
Claude 適合用來做 SEO 策略還是只能寫稿?
兩者都可以,但策略用途的價值遠大於寫稿。把 Search Console、Ahrefs、GA4 的原始數據匯出後餵給 Claude 做缺口分析、cannibalization 偵測、CTR 異常診斷,比讓它寫一篇空泛文章創造更多商業價值。Claude 本身在處理整張試算表的橫向比對上速度比人類團隊快 10 倍以上。
llms.txt 真的有用嗎?
證據混合且傾向懷疑。ALLMO.ai 對 94,614 個 AI 引用 URL 的分析中只有 1 個來自 /llms.txt;AEO Engine 對 500 個網站的研究顯示 llms.txt 與 AI 引用之間零相關。但 Anthropic、Perplexity、部分 ChatGPT 實作確實會讀取它,且製作成本只要一小時。把它當「成本接近零的對沖」來實作合理;當成「流量增長杠桿」來指望會失望。
FAQ schema 跟一般文章的差別在哪?
FAQPage schema 給 AI 一個結構化的問答對,AI 不需要靠語意解析就能高信心抽取。實作正確時可讓 AI Overview 引用率提升超過 20%。注意 schema 內容必須與頁面可見內容一致,否則違反 Google 規範。一個常見的 bug:客戶端 React component 與伺服器端 SSR 同時輸出 schema,造成重複,GSC 會直接報錯。
AI Overview 把流量都吃掉了,那做 SEO 還有意義嗎?
有,但定義要改。被 AI Overview 引用的網站點擊增加 35%,AI 來源訪客的轉換率是 14.2%、是一般 organic 的 5 倍。零點擊率上升不等於零價值,關鍵是從「追排名」轉到「追引用」。47% 的 AI Overview 引用來自排名第 5 名以下的頁面,意思是中小網站的機會反而擴大。
沒有工程師可以做這套基礎建設嗎?
可以但需要 AI 輔助。Agensi.io 創辦人本身不是工程師,前端用 Lovable、邏輯與技術 SEO 全靠 Claude 指揮。重點在於 Claude 能把工程師的內隱知識外顯化:它會生 IndexNow 指令、寫 schema 修復 prompt、用 curl 驗證、找出 LCP 瓶頸。但人需要懂得問對問題、驗證結果,這個人不需要會寫程式,但要懂 SEO 與 AEO 的概念邊界。
高公信力引用(Sources)
- Ahrefs / ALM Corp — Top-10 page citation share dropped from 76% to 38%
- Stackmatix — Google AI Overview SEO Impact: 2026 Data & Statistics
- Reddit r/ClaudeAI — 原始案例分享:Agensi.io 創辦人公開拆解 0 to 10K 用戶工作流
Author Insight
Tenten 在過去幾季協助金融、製造、跨境電商客戶做 GEO/AEO 落地時,看到一個反覆出現的模式:客戶內部 SEO 團隊已經習慣以排名為單一 KPI,而行銷主管則對 AI 引用沒有可衡量的指標可以呈報董事會。我們做的事情通常先從重新定義 KPI 開始,把「page 1 關鍵字數」拆成兩條線——傳統 organic 排名數、以及實際被 AI Overview / Perplexity / ChatGPT 引用的查詢數。後者用 Ahrefs Brand Radar 加自建 dashboard 追蹤。
實務上發現一個違反直覺的現象:B2B 客戶的內容常常已經很有專業深度,但 schema 與結構化資料層做得太薄,導致 LLM 在抓 sub-query 答案時根本看不見。修補這層的 ROI 比再寫 20 篇新文章高得多。Claude 在這個工作流的位置很關鍵——它能讀整個網站的程式碼、HTML、schema markup,找出客戶端與伺服器端 schema 衝突這種人眼難以察覺的 bug。這個用途屬於「AI 當資深技術稽核員」的層級,跟「AI 寫稿」的價值差一個量級。
至於從 0 到 10,000 用戶這種數字,要看產品本身的市場 fit;同樣的工作流套到沒人需要的產品上,照樣是零點擊。SEO 與 AEO 是流量放大器,不是產品救星。
行動呼籲
我們最近協助 B2B 與電商客戶診斷 GEO/AEO 缺口、重建 schema 與 entity 信號層、並用 Claude 把整套技術 SEO 稽核流程自動化,多數案例在第三個月開始看到 AI 引用次數的明顯增長。如果你想討論用 Claude 做 SEO 與 AEO 在你的網站怎麼落地,歡迎跟 Tenten 團隊預約諮詢。

