從資料來源、摘要、深度文章、Grok 輿情補充,到封面圖與 Ghost 發佈的一條龍工作流。
這個網站最近的內容,很多都來自一條我自己逐步搭起來的工作流:用 AI 協助我整理過去 48 小時的重要科技訊號,進一步生成深度文章,最後發佈到 RichardNote。
我一開始的目標其實很單純:不是想做一個全自動「內容農場」,而是想解決一個很實際的問題——每天值得看的資訊很多,但真正有價值的,往往不是「誰又發了一篇新聞稿」,而是這些事件彼此之間有沒有形成新的趨勢、工程上的意義在哪裡、對開發者或產品團隊又有什麼影響。
所以我想做的,不是單純抓新聞,而是建立一條可以持續運作、可以修正、可以補強的內容工作流。
我想解決的,不只是「整理新聞」
如果只是把 RSS 或新聞標題拉下來,再交給模型做摘要,那件事其實很快就能做出第一版。但真的開始用之後,我很快就發現,問題從來都不是「能不能產生一篇文章」,而是:
- 這篇文章有沒有原始來源可追溯?
- 內容是不是只是把別人的話重新講一遍?
- 生成結果有沒有過度模板化?
- 如果流程某一段失敗,整條工作流會不會直接斷掉?
- 發佈之後,封面圖、SEO、metadata 是不是又變成另一套手動工作?
也因為這樣,我後來把重點從「自動生成文章」轉成「設計一條可維運的內容流程」。
目前這條工作流大致怎麼跑
現在這套流程的主幹大致分成幾段:
- 抓取近 48 小時的科技來源
- 篩選與整理重點事件
- 生成每日 digest 與深度文章
- 補進 Grok / X 平台的社群輿情觀察
- 轉成可發佈的 HTML
- 發佈到 RichardNote(Ghost)
- 生成封面圖、補齊 feature image 與 metadata
這裡面不是每一段都完全自動,而是把「重複、機械、容易出錯的步驟」盡量交給系統,然後把最後的判斷與修正保留給自己。
第一步:資料來源不是越多越好,而是要可追溯
我現在的資料來源會盡量優先使用:
- 官方公告
- 開源專案頁面
- 技術文件
- GitHub release / trending
- 相對可信的科技媒體
原因很簡單:如果來源本身就模糊,後面的摘要再漂亮都沒有意義。
所以這套流程的第一個原則就是:來源一定要能回頭查。文章最後會保留參考資料連結,避免只剩下二次轉述。
第二步:摘要不是目標,篩選才是重點
很多人以為 AI 摘要流程的核心是「模型寫得順不順」。但我自己實際用下來,真正重要的反而是:
- 哪些事件應該被放進去?
- 哪些只是熱度,不值得占篇幅?
- 哪些看起來是不同新聞,其實指向同一條主線?
所以我現在更在意的是把內容整理成:
- 背景
- 影響
- 接下來觀察
這種格式。因為這樣比較像分析,不像單純摘要。
第三步:深度文章一定要有作者判讀
如果只是把 5~8 則新聞分點排好,對讀者來說還是不夠。真正能讓一篇文章有價值的,通常是作者自己的判讀。
我後來慢慢把文章固定成一種方向:
- 不是只說「發生了什麼」
- 還要說「這代表什麼」
- 最後再補「下一步應該看什麼」
這個差異其實很重要。因為前者任何模型都能做,後者才比較接近一個人真的在吸收資訊之後做出的整理。
第四步:把 Grok 郵件整合進來,看社群輿情怎麼擴散
最近我又把另一條線整合進來:每天抓當天的 Grok 郵件,打開郵件裡的 Grok 連結,整理成一段「社群輿情補充」。
這樣做的原因是,我發現很多時候正式新聞只告訴你事件本身,但不一定會呈現:
- X 平台上大家怎麼解讀這件事
- 哪種敘事被放大
- 哪些內容可能有異常擴散跡象
我不會把 Grok 內容當成正式新聞來源,而是把它當作一個補充視角。它比較像是在回答:
這件事情在社群平台上,現在是怎麼被講述的?
這對每天的深度文章來說,會比單純再加一則新聞更有意思。
第五步:發佈不是終點,封面圖與 metadata 也要進流程
以前我常常遇到一個狀況:文章發出去了,但封面圖還沒做,meta title、meta description 也還沒補,最後又變成額外手工。
後來我把這段也併進流程裡:
- 用 Gemini 產生 16:9 封面圖
- 風格盡量做成 editorial、不要太有 AI 味
- 上傳到 Ghost
- 設成 feature image
- 補上 alt、meta title、meta description
這個改動很重要,因為它讓「文章完成」不再只是文字完成,而是變成一篇可以直接拿去展示、分享與被搜尋引擎理解的內容。
我最在意的,其實是這條流程能不能長期維護
我現在對這條 workflow 最在意的,不是它能不能再多省幾分鐘,而是它有沒有以下特性:
1. 出錯時不要整條倒掉
例如:
- 今天沒有 Grok 郵件,就跳過或退回 email teaser
- 圖片下載失敗,要有替代流程
- 某個來源壞掉,不要整篇文章都不能發
2. 可追溯
我希望每篇文章最後都能回到:
- 原始來源在哪
- 為什麼選這些事件
- 哪些是觀點、哪些是事實
3. 可修正
這套系統不是一次寫完就完事。我最近其實花了很多時間在補:
- feature image
- SEO metadata
- 信任頁
- noindex / tag archive 清理
- 每日 Grok 輿情整合
這些都不是一開始就設計得很完美,而是實際跑起來後,慢慢修出來的。
這套系統目前還有哪些限制
說到底,它還不是一條「完全不用看」的全自動內容管線。
目前我覺得最主要的限制有:
- 如果文章全部都長得太像,網站仍然會有模板化風險
- AI 很擅長整理,但不代表它自動就會產生真正有價值的判讀
- 社群輿情補充很有用,但也要避免把它誤當成已驗證事實
- 封面圖雖然能自動化,但還是需要風格判斷,不然很容易產生一眼就很 AI 的圖片
換句話說,這條工作流真正的價值,不是「把人拿掉」,而是:
把重複勞動交給系統,把真正需要判斷的地方留給人。
我目前對這件事的看法
如果只看表面,這看起來像是一套「AI 幫我寫部落格」的流程;但我覺得更準確的說法應該是:
我在設計一條讓內容生產更穩定、可維運、可修正的工作流。
它不只是為了省時間,也是為了讓我能把注意力放在更值得花時間的地方:
- 哪些主題真的重要
- 我自己的判讀是什麼
- 怎麼讓文章更有長期價值
如果未來這條流程持續成熟,它對我來說就不只是內容工具,而會變成一種新的寫作與研究方式。
結語
現在這個網站上的每日科技深度文章,表面上看是 AI 幫我整理新聞;但實際上,我更在意的是背後那條流程是否夠穩、夠清楚、夠可持續。
我不覺得 AI 會讓內容寫作變得完全不需要人,反而更像是把人從重複勞動裡抽出來,讓人去做更高價值的事:定義主題、判斷重要性、做出觀點、修正錯誤。
而這,大概也是我現在最想繼續做下去的方向。
