我如何用 AI 自動化整理科技新聞,並發佈到 RichardNote

從資料來源、摘要、深度文章、Grok 輿情補充,到封面圖與 Ghost 發佈的一條龍工作流。

這個網站最近的內容,很多都來自一條我自己逐步搭起來的工作流:用 AI 協助我整理過去 48 小時的重要科技訊號,進一步生成深度文章,最後發佈到 RichardNote。

我一開始的目標其實很單純:不是想做一個全自動「內容農場」,而是想解決一個很實際的問題——每天值得看的資訊很多,但真正有價值的,往往不是「誰又發了一篇新聞稿」,而是這些事件彼此之間有沒有形成新的趨勢、工程上的意義在哪裡、對開發者或產品團隊又有什麼影響。

所以我想做的,不是單純抓新聞,而是建立一條可以持續運作、可以修正、可以補強的內容工作流。

我想解決的,不只是「整理新聞」

如果只是把 RSS 或新聞標題拉下來,再交給模型做摘要,那件事其實很快就能做出第一版。但真的開始用之後,我很快就發現,問題從來都不是「能不能產生一篇文章」,而是:

  • 這篇文章有沒有原始來源可追溯?
  • 內容是不是只是把別人的話重新講一遍?
  • 生成結果有沒有過度模板化?
  • 如果流程某一段失敗,整條工作流會不會直接斷掉?
  • 發佈之後,封面圖、SEO、metadata 是不是又變成另一套手動工作?

也因為這樣,我後來把重點從「自動生成文章」轉成「設計一條可維運的內容流程」。

目前這條工作流大致怎麼跑

現在這套流程的主幹大致分成幾段:

  1. 抓取近 48 小時的科技來源
  2. 篩選與整理重點事件
  3. 生成每日 digest 與深度文章
  4. 補進 Grok / X 平台的社群輿情觀察
  5. 轉成可發佈的 HTML
  6. 發佈到 RichardNote(Ghost)
  7. 生成封面圖、補齊 feature image 與 metadata

這裡面不是每一段都完全自動,而是把「重複、機械、容易出錯的步驟」盡量交給系統,然後把最後的判斷與修正保留給自己。

第一步:資料來源不是越多越好,而是要可追溯

我現在的資料來源會盡量優先使用:

  • 官方公告
  • 開源專案頁面
  • 技術文件
  • GitHub release / trending
  • 相對可信的科技媒體

原因很簡單:如果來源本身就模糊,後面的摘要再漂亮都沒有意義。

所以這套流程的第一個原則就是:來源一定要能回頭查。文章最後會保留參考資料連結,避免只剩下二次轉述。

第二步:摘要不是目標,篩選才是重點

很多人以為 AI 摘要流程的核心是「模型寫得順不順」。但我自己實際用下來,真正重要的反而是:

  • 哪些事件應該被放進去?
  • 哪些只是熱度,不值得占篇幅?
  • 哪些看起來是不同新聞,其實指向同一條主線?

所以我現在更在意的是把內容整理成:

  • 背景
  • 影響
  • 接下來觀察

這種格式。因為這樣比較像分析,不像單純摘要。

第三步:深度文章一定要有作者判讀

如果只是把 5~8 則新聞分點排好,對讀者來說還是不夠。真正能讓一篇文章有價值的,通常是作者自己的判讀。

我後來慢慢把文章固定成一種方向:

  • 不是只說「發生了什麼」
  • 還要說「這代表什麼」
  • 最後再補「下一步應該看什麼」

這個差異其實很重要。因為前者任何模型都能做,後者才比較接近一個人真的在吸收資訊之後做出的整理。

第四步:把 Grok 郵件整合進來,看社群輿情怎麼擴散

最近我又把另一條線整合進來:每天抓當天的 Grok 郵件,打開郵件裡的 Grok 連結,整理成一段「社群輿情補充」。

這樣做的原因是,我發現很多時候正式新聞只告訴你事件本身,但不一定會呈現:

  • X 平台上大家怎麼解讀這件事
  • 哪種敘事被放大
  • 哪些內容可能有異常擴散跡象

我不會把 Grok 內容當成正式新聞來源,而是把它當作一個補充視角。它比較像是在回答:

這件事情在社群平台上,現在是怎麼被講述的?

這對每天的深度文章來說,會比單純再加一則新聞更有意思。

第五步:發佈不是終點,封面圖與 metadata 也要進流程

以前我常常遇到一個狀況:文章發出去了,但封面圖還沒做,meta title、meta description 也還沒補,最後又變成額外手工。

後來我把這段也併進流程裡:

  • 用 Gemini 產生 16:9 封面圖
  • 風格盡量做成 editorial、不要太有 AI 味
  • 上傳到 Ghost
  • 設成 feature image
  • 補上 alt、meta title、meta description

這個改動很重要,因為它讓「文章完成」不再只是文字完成,而是變成一篇可以直接拿去展示、分享與被搜尋引擎理解的內容。

我最在意的,其實是這條流程能不能長期維護

我現在對這條 workflow 最在意的,不是它能不能再多省幾分鐘,而是它有沒有以下特性:

1. 出錯時不要整條倒掉

例如:

  • 今天沒有 Grok 郵件,就跳過或退回 email teaser
  • 圖片下載失敗,要有替代流程
  • 某個來源壞掉,不要整篇文章都不能發

2. 可追溯

我希望每篇文章最後都能回到:

  • 原始來源在哪
  • 為什麼選這些事件
  • 哪些是觀點、哪些是事實

3. 可修正

這套系統不是一次寫完就完事。我最近其實花了很多時間在補:

  • feature image
  • SEO metadata
  • 信任頁
  • noindex / tag archive 清理
  • 每日 Grok 輿情整合

這些都不是一開始就設計得很完美,而是實際跑起來後,慢慢修出來的。

這套系統目前還有哪些限制

說到底,它還不是一條「完全不用看」的全自動內容管線。

目前我覺得最主要的限制有:

  • 如果文章全部都長得太像,網站仍然會有模板化風險
  • AI 很擅長整理,但不代表它自動就會產生真正有價值的判讀
  • 社群輿情補充很有用,但也要避免把它誤當成已驗證事實
  • 封面圖雖然能自動化,但還是需要風格判斷,不然很容易產生一眼就很 AI 的圖片

換句話說,這條工作流真正的價值,不是「把人拿掉」,而是:

把重複勞動交給系統,把真正需要判斷的地方留給人。

我目前對這件事的看法

如果只看表面,這看起來像是一套「AI 幫我寫部落格」的流程;但我覺得更準確的說法應該是:

我在設計一條讓內容生產更穩定、可維運、可修正的工作流。

它不只是為了省時間,也是為了讓我能把注意力放在更值得花時間的地方:

  • 哪些主題真的重要
  • 我自己的判讀是什麼
  • 怎麼讓文章更有長期價值

如果未來這條流程持續成熟,它對我來說就不只是內容工具,而會變成一種新的寫作與研究方式。

結語

現在這個網站上的每日科技深度文章,表面上看是 AI 幫我整理新聞;但實際上,我更在意的是背後那條流程是否夠穩、夠清楚、夠可持續。

我不覺得 AI 會讓內容寫作變得完全不需要人,反而更像是把人從重複勞動裡抽出來,讓人去做更高價值的事:定義主題、判斷重要性、做出觀點、修正錯誤。

而這,大概也是我現在最想繼續做下去的方向。

Author image
關於 Richard Zheng
About me 喜歡爬山,瑜伽,溜冰,喜歡新奇的事,最喜歡的還是寫程式帶來的成就感,對於資訊會不斷的出現新事物也能抱持好奇與熱忱。近期開始將學習的心得寫在Blog,發現思路更清晰也加深了記憶。 紙上得來終覺淺,絕知此事要躬行
您已成功訂閱 Richard's NoteBook
歡迎回來!您已成功登入。
無法讓您登入。請再試一次。