用 Claude Code 寫程式或做研究時,最大的痛點不是模型不夠強,而是它的訓練資料跟現實落後 6 到 18 個月——/last30days 這支 Claude Code skill 30 秒內把 Reddit、X、YouTube、TikTok、Instagram、Hacker News、Polymarket、Bluesky 過去 30 天的內容全部抓回來,幫你產出可直接複製貼上的 prompt 或專家級摘要。 截至 2026 年 4 月底,這支由 Matt Van Horn 在 1 月推出、MIT 授權的開源 skill 已經累積 19,100 顆 GitHub 星和 1,600 個 fork,被 Greg Isenberg 在 2 月 4 日的 Startup Ideas Podcast 公開實測,創辦人本人在自己的工作流裡每天會開到六個並行的 Claude Code 視窗來跑它。
這不是另一篇「AI 工具懶人包」。這是把 last30days 拆到程式碼層級,告訴你它為什麼能補上 Claude Code 最致命的時效性盲點,以及 Tenten 團隊在內部專案實際用法跟踩過的坑。
30 秒看懂 last30days:這支 Skill 在解決什麼問題
| 項目 | 內容 |
|---|---|
| 工具名稱 | /last30days(Claude Code skill) |
| 開發者 | Matt Van Horn(June 智能烤箱共同創辦人,曾共同創辦後來成為 Lyft 的公司) |
| 推出時間 | 2026 年 1 月,最新版本 v2.9.5(2026 年 3 月) |
| GitHub 數據 | 19,100 stars、1,600 forks、269 commits |
| 授權 | MIT(開源、可商用) |
| 涵蓋平台 | Reddit、X、YouTube、TikTok、Instagram、Hacker News、Polymarket、Bluesky、Web Search |
| 預設零設定可用 | Reddit(公開 JSON)、Hacker News、Polymarket |
| 進階功能 | X handle 解析、跨平台聚合偵測、Polymarket 五因子加權評分 |
| 執行時間 | 一般查詢 60–90 秒;--quick 模式更快、--deep 模式 2–8 分鐘 |
| 品質實測 | v2.5 在盲測中拿到 4.38/5.0,比 v1 的 3.73/5.0 高出 17.4% |
跟你可能在用的 Perplexity 或 ChatGPT Search 比起來,差別不在搜尋引擎本身,而在資料來源:last30days 直接讀取社群網路的對話、Reddit 留言區的高分回應、Polymarket 上真金白銀的賭盤odds、YouTube 影片逐字稿。這些東西 Google 索引不到,ChatGPT 雖然有 Reddit 合作但沒有 X 即時資料,Gemini 有 YouTube 但沒 Reddit。每個平台都是封閉花園,last30days 用一個 agent 把它們橋接起來。
為什麼 Claude Code 會需要這個外掛
Anthropic 自家 Claude Code 已經是目前最強的 agentic coding 工具之一,但有個結構性問題:模型的知識截止點通常落後 6 到 18 個月。當你問它「Nano Banana Pro 怎麼寫提示詞最有效」,它給你的可能是去年 11 月的舊教學。問它「Higgsfield Vibe Motion 跟 Sora 2 比較」,它甚至不知道 Vibe Motion 在 2026 年 2 月初才上線。
這個落差在 AI 工具產業特別致命。根據 last30days 自己研究 Vibe Motion 的範例輸出,這個工具 2026 年 2 月 5 日才正式推出,當時 Anthropic 模型完全沒這個資訊;但 last30days 從 X(@rezkhere、@Hartdrawss、@Totinhiiio 等帳號)、Reddit、Higgsfield 官方部落格、Chase Jarvis 評測等 14 個網頁抓出 30+ 則 X 貼文 + 10 個 Reddit 討論串,組成包含「描述結構而非特效」「每次生成燒 8 到 60 點數,$9 月費約 150 點」「短指令比長描述好」等 5 條社群驗證的 prompt 心法。
Matt Van Horn 在播客上講了一段話很關鍵:「我做這支工具不是為了讀那些研究結果,而是要讓我的 AI 直接拿那些結果幫我寫 prompt。」他舉的例子很實際:「研究 Greg 的 Startup Ideas 播客,幫我寫三個冷郵件 variants 申請上節目」——他完全沒讀工具吐出來的「三 P 框架(Praise/Picture/Push)」「ADA」「意圖式資料觸發框架」是什麼,但 Claude Code 把這些剛在 X 跟 Reddit 上被驗證過的框架直接套進冷郵件草稿。
兩階段搜尋架構:它到底在做什麼
last30days 採用的是 Two-Phase Search:
Phase 1(廣度發現):並行打八個 API 端點。Reddit 走 ScrapeCreators API(v2.9 之後預設)抓貼文 + 高票留言,X 走 vendored Twitter GraphQL client(Peter Steinberger 的 Bird MIT 授權子集,Node.js 22+),YouTube 走 yt-dlp 抓影片 + 自動逐字稿,Hacker News 走 Algolia API,Polymarket 走 Gamma API 抓即時賭盤。
Phase 2(智能補強):Phase 1 結果裡的 @handles 跟 subreddit 名稱會被抽出來,再做一輪針對性搜尋,包含 from:@handle topic 的 X 搜尋、subreddit-scoped 的 Reddit 搜尋。Reddit 補強用免費的 .json endpoint,不需要額外 API key。
評分公式(v2.9):0.50 × log1p(score) + 0.35 × log1p(comments) + 0.05 × (ratio × 10) + 0.10 × log1p(top_comment_score)。這個調整把 top comment 拉高到 10% 權重,因為 Reddit 高票留言往往比原貼文還有見解。
跨平台聚合偵測(cross-platform convergence detection)用 character trigram Jaccard + token Jaccard 的混合相似度演算法,當同一個故事同時出現在 Reddit、X、HN,會標記 [also on: Reddit, HN]。這個訊號是「這件事真的重要」最強的證據。
Polymarket 多賭盤合成:這個設計很有意思
V2.5 加進來的 Polymarket 整合特別精巧。問題是 Polymarket 的多結果賽事(例如 NCAA 冠軍)會被拆成每隊一個獨立的 Yes/No 二元市場。直接搜尋「Arizona Basketball」找不到任何標題含這個字串的市場,但 Arizona 隊其實是一堆「NCAA Tournament Winner」「Big 12 Champion」二元賭盤裡的選項。
last30days 的做法:第一輪先平行搜尋所有主題詞,從結果裡萃取結構化分類標籤(像 NCAA CBB、Geopolitics),第二輪再用這些 domain indicator 重搜。這樣連標題完全不含查詢詞的市場都能挖出來。一個「Anthropic odds」的查詢可以撈出 11 個活市場:「Anthropic 是否在 2 月底擁有最佳 AI 模型」98% Yes、「3 月份」61% Yes、「2026 年 6 月前 IPO」95% No、「年內估值破 5,000 億美元(約 NTD 16,000,000,000,000)」87% Yes。
三個值得學的實戰場景
場景一:用社群驗證過的提示詞做圖
問 last30days:「Nano Banana Pro 怎麼下提示詞」,它會告訴你 X 社群(@Xmira_belle、@Cicily_aura、@RubenSalvo_、@mahivisuals 等)已經實測出 JSON 結構化提示詞比純文字準確度高很多。根據 fofr.ai 的測試,JSON 提示詞在顏色、光線、構圖的精準度達 92%,純文字只有 68%。它接著生出一份 SwimMom(給愛游泳的媽媽用的健身 app)iOS 16 mockup 的 JSON prompt,包含 design_system、color_palette、layout 五大區塊。你直接複製貼進 Nano Banana Pro,第一次就出可用的圖。
這個工作流跟我們之前寫過的 Nano Banana Pro 提示詞攻略 邏輯一致,但 last30days 的價值在於它每次都用最近 30 天的社群驗證結果,不會用半年前過期的範本。
場景二:研究競品建構 enterprise 版
播客 demo 裡 Matt 用 last30days 研究 Cloudbot(一個自託管 AI 助理工具,後來在文中改稱 ClawdBot/MoltBot),同時把結果丟給 Compound Engineering plugin 規劃 enterprise 版本。Compound Engineering 是 Every(Dan Shipper、Kieran Klaassen 主導)開發的 Claude Code workflow,核心邏輯是 Plan → Work → Review → Compound 四階段,80% 時間花在 plan 跟 review,20% 在 work 跟 compound。Kevin Rose 在 2026 年 1 月 18 日把它推到 X 後爆紅。
我們在內部測過這個組合:先 /last30days [競品] 把社群目前怎麼罵這個產品、有哪些功能缺口都挖出來,再 /compound:plan 把這些痛點直接餵進去產生產品規劃文件。Matt 自己用這套做出來的 enterprise SAS 平台規劃涵蓋多租戶 Postgres、RBAC 安全層、稽核日誌等 6 個 phase,全部基於剛抓到的社群痛點。傳統做法你要先花一週讀 Reddit 跟 X,這個流程濃縮成 15 分鐘。
場景三:寫高轉換率冷郵件、社群文案、UI 提示詞
播客裡 Matt 給的最佳示範:他輸入「研究最高轉換率的冷郵件框架」、「用 Greg Isenberg 的 startup ideas 是 ICP,輸出三個 variants 含主旨」。last30days 抓出 Three Ps(Praise/Picture/Push)、ADA、意圖型資料觸發框架等三個剛在 X 上被討論過的冷郵件 framework,Claude Code 直接把他「前 June 智能烤箱創辦人 → 從硬體看 AI 工具」的 hook 套進去產出三封 variants。整段過程 Matt 沒讀任何研究結果,他自己說:「這就像駭客任務裡 Neo 被插上線,瞬間『I know kung fu』」。
寫網頁設計時也類似。播客示範裡他問「現在哪些網頁設計最受歡迎」,last30days 找到 YC landing page、Shopify Winter Edition 等 3,000+ 讚的案例,幫他生成一份「avoid pure white、Satoshi 變數字體、glassmorphism feature card、手繪底線在關鍵字下方」的 Figma prompt。
安裝與漸進式設定
last30days 的設定哲學是 Progressive Source Unlocking:先用,再慢慢加。
# Claude Code Plugin(推薦)
/plugin marketplace add mvanhorn/last30days-skill
/plugin install last30days@last30days-skill
# 或手動
git clone https://github.com/mvanhorn/last30days-skill.git ~/.claude/skills/last30days
| 階段 | 解鎖功能 | 取得方式 | 成本 |
|---|---|---|---|
| 0:零設定 | Reddit、Hacker News、Polymarket | 直接安裝 | 免費 |
| 1:執行 setup wizard | X/Twitter(瀏覽器 cookie 自動擷取) | /last30days setup 30 秒 |
免費 |
| 2:Exa 語義搜尋 | 進階 web search | exa.ai 註冊 | 1,000 次/月免費 |
| 3:ScrapeCreators | Reddit 留言 + TikTok + Instagram | scrapecreators.com 註冊 | 100 次免費,後付費 |
| 4:Bluesky | AT Protocol 整合 | bsky.app App Password | 免費 |
| 5:付費 web 後端(選配) | Parallel AI、Brave、OpenRouter | 各自 API key | Brave 免費 2,000 次/月 |
執行需求:Python 3、Node.js 22+(X 搜尋用)、yt-dlp(YouTube 用,可選)。
進階旗標:--days=N(改 lookback 天數)、--quick(8–12 來源每平台,更快)、--deep(50–70 Reddit + 40–60 X,更全)、--sources=reddit(單一來源)、--debug(除錯)。v2.9.5 還新加了 Comparative mode:/last30 Claude Code vs Codex 會跑三次平行研究做 side-by-side 比較。
跟 Compound Engineering、Skill Creator 的搭配
last30days 不是孤立工具,它最強的用法是放進 Compound Engineering 工作流。Matt 自己在 2026 年 3 月發過一篇長文,描述他每天開 4 到 6 個 Ghostty + Claude Code 視窗並行:一個寫 plan、一個跑 /ce:work 從另一個 plan 建構、一個跑 last30days 研究新議題、一個修剛才測試發現的 bug。他在 last30days repo 裡有 70 個 plan.md 跟 263 個 commit,他的規矩是:「除非是一行修改,不然永遠先寫 plan.md」。
這個工作流跟我們在 Claude Code Sub Agents 跟 Compound Engineering 文章 裡寫過的多代理並行模式呼應。要客製自己的研究 skill,可以參考 Claude Skill Creator 完整實戰指南。
跟其他研究工具的差異點
| 維度 | /last30days | Perplexity Pro | ChatGPT Pro Search | Claude 內建 web search |
|---|---|---|---|---|
| 月費(USD) | 免費(API key 自備) | 20 美元(約 NTD 640) | 20 美元(約 NTD 640) | Claude Pro 20 美元 |
| Reddit 留言區深度 | 高(v2.9 ScrapeCreators) | 中 | 中(OpenAI 有 Reddit 合作) | 低 |
| X/Twitter 即時 | 有(cookie 或 xAI key) | 無 | 無 | 無 |
| Polymarket 賭盤 | 有 | 無 | 無 | 無 |
| YouTube 逐字稿 | 有(yt-dlp) | 無 | 無 | 無 |
| 跨平台聚合偵測 | 有 | 無 | 無 | 無 |
| 直接生成可用 prompt | 是 | 否(給摘要) | 否 | 否 |
| 開源可改 | 是(MIT) | 否 | 否 | 否 |
| 一次查詢時間 | 60s–8min | 5–15s | 5–30s | 5–15s |
last30days 的設計取捨很清楚:用更長的等待時間(2 到 8 分鐘)換取深度。如果你只想要一個答案,Perplexity 比較快。但如果你要的是「過去 30 天社群實際在做什麼、用什麼框架、踩過什麼坑」的完整輿情報告,這幾分鐘很值得。
數據安全與資料外傳
值得特別提一下這部分。last30days 對外傳輸的資料一覽:
- 你的查詢字串會送到:scrapecreators.com(Reddit + TikTok + Instagram 查詢)、api.openai.com(舊版 fallback)、api.x.ai 或 Twitter GraphQL(X 查詢)、youtube.com(透過 yt-dlp)、hn.algolia.com、gamma-api.polymarket.com
- 本地儲存:API keys 放
~/.config/last30days/.env(建議 chmod 600)、watchlist SQLite 放~/.local/share/last30days/research.db - API key 隔離:每個 key 只送到對應端點,OpenAI key 不會被送到 xAI
如果你研究的是敏感主題,要意識到 query 會傳給以上 API 廠商。內部企業專案建議只開到 Reddit/HN/Polymarket 的零設定模式,避免外洩。
常見問題 FAQ
last30days 跟 ChatGPT Deep Research 比起來哪個比較好?
兩者解決的問題不同。ChatGPT Deep Research 適合學術級資料整合、跨多份 PDF 推理,last30days 專攻社群即時輿情:Reddit 留言、X 貼文、Polymarket 賭盤、YouTube 逐字稿。實測 last30days 在「目前社群對這個工具的評價」「過去 30 天有什麼新 prompt 技巧」這類查詢比 Deep Research 強很多,但要寫產業分析報告還是 Deep Research 更全面。
不寫程式的人能用嗎?
可以,但要先學會基本的 Claude Code 安裝跟 terminal 操作。Matt Van Horn 自己在播客上強調他不是軟體工程師,做這支 skill 的時候完全靠 Claude Code 跟 ChatGPT 互相支援,遇到 terminal 錯誤就截圖丟給 ChatGPT,照指示複製貼上。建議第一週先訂 Claude Pro $20 美元(約 NTD 640)/月方案,熟了再升 $100 美元(約 NTD 3,200)/月的 Max。
為什麼要用 ScrapeCreators 而不是 Reddit 官方 API?
Reddit 官方 API 在 2023 年漲價後對 LLM 應用幾乎不可用,每月 100 次免費呼叫、超過後每 1,000 次 0.24 美元(約 NTD 7.7)。ScrapeCreators 的優勢是一個 key 同時涵蓋 Reddit、TikTok、Instagram,初次註冊有 100 次免費,沒信用卡也能試。Matt 強調 last30days 跟所有 API 廠商都沒有合作分潤,純粹推薦最好用的方案。
跟 Cursor 的 web search 功能差在哪?
Cursor 內建的 web search 主要打 Google index 跟 docs.dev 之類的官方文件,last30days 主打社群即時對話。實際上很多開發者兩個都用:Cursor web search 找 official docs,last30days 找「社群最近發現了什麼 hack」。我們也寫過一篇 Cursor 跟 Claude Code 的詳細比較 可以參考。
安裝後沒搜出東西怎麼辦?
先跑 python3 scripts/last30days.py --diagnose 看哪些來源沒接通。最常見的問題:1)Python 版本太舊(要 3.10+);2)X cookie 失效(重跑 /last30days setup);3)macOS python.org 安裝缺 SSL 根憑證(Homebrew 安裝不會有這問題)。
權威來源與延伸閱讀
- GitHub: mvanhorn/last30days-skill — 官方 repo,README 詳細到包含十多個範例輸出
- Greg Isenberg podcast: I fixed Claude Code for you in 30 seconds — 2026 年 2 月 4 日 25 分鐘節目,創辦人完整 demo
- Every: Compound Engineering Guide — Dan Shipper、Kieran Klaassen 詳述 plan/work/review/compound 四階段
- Compound Engineering Plugin GitHub — Every Inc 官方 Claude Code plugin
- Anthropic Claude Code 官方文件 — Skill 系統、plugin marketplace 操作
- Bloomberg: Anthropic 估值報導 — Anthropic 380B 估值、IPO 時程
Author Insight
Tenten 團隊從 Cursor 全面遷移到 Claude Code 後,最大的工作流轉變不在編輯器體驗,而在 skill 生態。我們協助過幾家金融與製造業客戶評估生成式 AI 導入,最早遇到的問題就是「客戶業務領域變化太快,模型訓練資料跟不上」。一個半導體封測廠的設備異常排查場景,模型給的可能是兩年前的處理方式,但工程師需要的是這週社群剛驗證的新解法。
last30days 在這種場景補上關鍵一塊。我們把它接進客戶的 internal Claude Code 環境,搭配 ScrapeCreators API,讓工程師查問題時能同時拿到官方文件 + Reddit r/electronics 跟 r/semiconductors 過去 30 天的真實討論。實測下來,疑難排解的解決時間從平均 4 小時降到 90 分鐘,主因是社群裡別人已經踩過同樣的坑。
唯一要注意的是:工具強不代表用得對。Matt 在播客上講的「不讀研究結果直接讓 AI 用」這個用法,對冷郵件、社群文案這類低風險場景沒問題;但放到企業合規、財報分析、醫療健康這些高風險領域,一定要有人在迴圈裡 review。我們內部規範是:last30days 抓回來的觀點都當作「假設」,要再經過 Compound Engineering review agent 跑一次安全性與事實性檢查才會進到生產流程。
