今天,我決定把我自己做的,幫助我自己監控AI熱點、輔助找選題的網站,向所有人免費開放了。
它幾乎承載了我三年做AI自媒體獲取信息的經驗。
我把它稱為,AIHOT。
很多小伙伴可能在過去我很多篇文章中,都見過它的身影了。
![]()
這個東西的作用其實巨簡單,一段話就能描述清楚:
幫助你以干凈的時間線的形式,監控這個世界上跟AI相關的信息,然后用我自己對內容挑選的策略,將值得你關注的東西精選出來,對信息海進行降維,從而保護我們的為數不多的注意力。
這玩意其實本身是給我們公司內部用的,創造它的目的,其實就是為了保護我自己的創作精力,我一開始真的沒打算把它開放給所有人。
因為對于一個自媒體來說,信息的獲取的及時性,有的時候就是命根子。
但,可能是產品心理作祟吧,我工作這么多年,一直在設計產品,一直在做產品,做了好多好多年。
我還是有產品夢的,我還是想為這個美好的互聯網貢獻一點我自己的東西的,而我很多時候最大的成就感的來源,其實就是大家喜歡看我的文章,喜歡用我做的產品。
我在每次文章的底部,都會寫上一句話,叫做“謝謝你看我的文章。”
這句話來源于我最喜歡的一部電影,《頭號玩家》。
這是 綠洲游戲的創造者 哈利迪在最后消逝的時候,對身為玩家的主角所說的一句話,也是我認為整部電影,最棒的落筆。
![]()
我也想我創造的東西,被人看見,被大家喜歡,僅此而已。
所以在4月初的某個夜晚,我甚至都沒有說服自己的過程,就突然間起心動念,就覺得,不如給大家開放了吧,大家一起用吧。
如果能幫助到大家,那我就真的很開心了。
網址在此: https://aihot.virxact.com/
因為確實沒啥錢買域名,所以還是用的公司域名來做開發的,所以可能域名會有一點難記。
接下來,我也想再花一點篇幅,好好介紹一下這個東西,還有我在開發過程中,遇到的一些坑和經驗的分享。
先聊聊AIHOT這個產品。
我覺得在這個時代,很多的工作其實已經不是執行了,執行這塊Agent已經可以干的很好了,現在更多的工作成了信息的處理,我自己一般分為三個流程:
獲取信息 - 對信息進行分析 - 基于信息做決策。
對于我做內容創作來說,獲取信息就是從信息海中找到值得我關注的,而進行分析,其實就是基于信息,看看有什么選題角度可以切入,最后的決策,其實就是這個選題到底值不值得寫。
目前來說,AIHOT解決的就是獲取信息的問題,這個也是我自己過去的痛點,這個世界已經是信息海了,而且AI時代,垃圾信息滿天飛,為了保護我們自己的注意力,我們只能做信息的篩選。
并且基于AI時代的信息黑暗森林法則,在如今,信源比信息重要。
所以第一步,肯定是篩選信源。
![]()
PS:這里我得先非常坦誠的說一下,上面的界面是我的AIHOT界面,公司內部同事和大家看到的界面的功能是不一樣的,因為有些東西,確實不太方便全部公開,我還是得保護一下自己的一些底層策略。
上面那個截圖是公司同事和我們MCN簽約博主在進行企業飛書認證登錄以后能看到的。
而給大家能看到的是下面這個無法登錄的版本,在Tab上會少了很多,很多的底層策略和信息是看不多的,這個確實目前是沒辦法公開,希望大家可以諒解一下,磕頭。
![]()
說回信源的部分。
我目前在持續監控的信源是168個,監控的手段就比較亂了,有RSS訂閱、有對著別人HTML直接爬的、有調用對方公開API接口的、有我自己花錢買的三方數據接口的等等。
所有的信源都是我自己挨個精選過的,秉持著寧缺毋濫和一手信息優先的原則,大概調了一個月,真的就是慢慢的累加。
然后信源等級我自己分了3類,這個跟后續的精選策略權重有關,分別是T1、T1.5、T2。
![]()
像比如OpenAI的官方博客、Anthropic的工程博客、奧特曼的Blog 、CMU的博客等等,這種就屬于最值得看的官方一手信息,也就是T1。
而這些官方的X賬號,一般發的東西會比官方網站更多更雜,無用消息也更多,所以我設為了T1.5,權重會低一點,比如OpenAI的官推。
![]()
而其他的所有大佬個人號(比如奧特曼、達里奧等等)、KOL、媒體、還有一些綜合資訊站,都被統一劃在了T2里。
信源挑選完之后,才是我覺得,我整套系統最復雜的地方了。
也就是信息的處理。
這一百多個信源,其實已經不多了,但是每天抓取來的信息,還是有幾百條之多,比如昨天一天,其實就抓了563條。
![]()
你相信我,這么多條,不可能會有任何一個人會看完的,這是信息爆炸,毫無意義。
而且里面其實有非常多,是跟AI無關的,看我上面的漏斗就知道,有一半是跟AI無關的。
比如蘋果的Newsroom,它大部分內容其實就是一些亂七八糟的公告啥的,你不能因為蘋果做了Apple Intelligence就把蘋果的所有新聞都當AI新聞。
![]()
所以,這就是我最核心的,精選機制了。
如何從抓取的靠譜的信源中,再挑選出值得關注的信息,推送到我的面前,也就是,精選tab中的這些,被精選的信息。
可以看到,每一個被精選的信息,都在信息卡片上被打了標和分數,這些信息你也可以點擊標題跳轉到原文。
![]()
展示出來的看著非常簡單對吧,其實2月份剛開始做的時候,我也以為這事非常簡單。
當時我就想著,這玩意能有多復雜,寫個Prompt讓大模型判斷不就完事了嗎,大模型直接給個分,然后設定個閾值,過了閾值的就值得被精選出來,不就完事了嗎。
但是真的越做到后面,發現越不是這樣,我想的太簡單了,實際情況比這復雜多了。
這個評分策略,我整整迭代了11版。
![]()
詳細的Prompt、多維度評分機制還有最終的數值設計,我確實不太好公開,但是整體的架構處理流程,我覺得還是可以給大家分享一下的。
![]()
抓取完了以后,DeepSeek V3.2會進行預篩,判斷這條信息是否跟AI有關,如果有關,則推進到下一步,如果無關,直接落庫,不進行后續的評分了。
![]()
為啥要預篩呢,原因很簡單,就是管控成本,先用便宜的模型來預篩一下,通過的再交給后面智力更高的模型去進行評分,這樣省錢。。。
至于為啥用DeepSeek V3.2,單純是因為這個任務非常的簡單,DeepSeek V3.2這個智力水平的模型足夠了,而且我用DeepSeek V3.2約等于免費,因為我去年過年DeepSeek那一波推了一下硅基流動,邀請獎勵搞了有將近10萬人民幣的Token量,現在還沒花完。。。
預篩過了以后,就是大模型進行評分和翻譯+摘要并行。
![]()
這個AI評分,其實是我經歷的最大的坑。
最開始2月我開始做的時候,心里想著,
模型這么強,我直接寫個prompt讓它給每條新聞打分就行了。判重要不重要它行、判分類它行、判讀者愛不愛看也行,全交給它。
寫了第一版prompt跑了一周。
結果一塌糊涂,一些究極硬核的論文動不動90分,我點開三秒看不下去。Sam Altman轉發了一個 OpenAI 實習生的雞湯推文,模型給87分。
同一件事被官方、X、IT之家各種媒體報道了七遍,七遍全部進精選。
太特么扯淡了。
然后,我開始往prompt里加規則。
大佬轉發要降分,同一事件已被報道過要降分,營銷軟文降到50以下,國內大公司發模型不要因為不是英文環境就低估。。。
加著加著,prompt漲到300多行。
到了3月,我做了一件我當時自認為覺得是里程碑的事,我引入了人類反饋標注機制,我跟我的同事每天點幾條這條精選得對/不對,系統把反饋喂回讓它持續迭代。
![]()
我還給這個迭代配了一個內部評估機制,每次AI評分規則升級,我會用它去重新評估過去500條新聞,看新版本和老版本誰選得更準。
![]()
聽著非常酷對吧?模型 + 人類反饋 + 自動評估 + 持續迭代,標準的AI產品做法。
跑了一周以后,我幾乎崩潰了,因為你要知道,規則加的越多,模型泛化能力越差,反而越來越笨,我又加了更多的規則,于是選的更差了。
為了解決這些問題,我又加了雙維度評分還有實體熱度感知(讓模型知道哪個公司最近很火),但結果直接廢了。
V7到V8策略的迭代,當時是純粹的負向優化。
我直接全面回滾,推倒重來了。
那一刻,我才想起來,我自己寫過的一篇文章。
你絕不能,把所有的事情都交給模型,打分是他、權重計算是他、打標是它、判斷是否精選還是它。
所以直接推倒重構了,重新了梳理了我的流程和機制,能用代碼處理的,一律不用模型處理。
現在,大模型評分只做一件事,就是根據我的Prompt,對每一條信息,打5個維度分,不需要打最終分了,這樣會更加準確和客觀。
![]()
而其他的,什么都不需要管了,Prompt直接也從600行直接縮減到了200行。
我目前用的打分模型,是DeepSeek V4 Pro,世界知識極強,在這種需要世界知識判斷的任務下,再加上打折,真的香麻了。
打完分以后,所有的根據信源的重要程度、類型、公司等等的權重重計算,也不需要模型來了,我直接用代碼寫好了明確的計算公式,拿著大模型對那條信息大的五維分,然后使用公式直接重新計算,得到最終的質量分。
現在首頁上展示的,就是計算完畢的最終分。
而是否值得精選,也不由模型判斷,而是根據質量分,再由代碼判斷是否過了每個類別的精選閾值。
比如OpenAI官網發的東西,60分的重要性已經挺值得看了,但一個像我這樣的AI博主的轉發評測,其實講道理,屬于二手消息,60分可能只是普通水平,那你就不一定需要看到它。
所以,如果過了,就精選,如果不過,就不展示。
![]()
用代碼管控的最好的結果,就是極度的可控、可調。
現在的數值設計,是我直接用量化的方式跑了上百個數值回測調出來的,目前我自己還比較滿意,如果后續我覺得不好,那也很簡單,公式里調一下權重或者某個數值,又或者改一下閾值的門檻分,幾秒的事。
這個機制,其實就是模擬的我自己作為一個內容創作者,每天刷信息時腦子里那套隱性的過濾機制。
評分和精選之外,還有一套東西,我把它稱為事件聚類系統。
就是比如昨天,GPT-5.5 Instant發布了,除了OpenAI官方會報道之外,其實還有一堆人也會一起報道。
![]()
如果不做聚類,精選頁上就可能同一件事會出現七八條甚至十幾條,那體驗絕逼是災難。
所以我在設計AIHOT的時候,會用embedding把語義相近的條目聚到一個事件簇里,然后在簇里選一條最權威的當主條,其他的折疊進去。
精選頁上同一件事只展示一條,點開能看到所有相關報道。
官方源發的永遠優先當主條,官網比官方推特優先,官方推特比KOL優先。
然后還有一個AI日報功能,這個是前段時間隨手做的一個小功能。
![]()
大概就是每天早上北京時間8點,系統會自動把過去24小時的精選內容,再稍微挑選一下,按版塊整理成一份報日報。
版塊分五塊,模型發布/更新、產品發布/更新、行業動態、論文研究、技巧與觀點。
你每天早上起來,打開日報頁,一份干干凈凈的AI世界昨日要聞就在那了。
而這個日報,也不需要任何大模型來生成,因為所有的精選、分類、翻譯,在信息入庫的時候就已經全部做完了,日報只需要把已經處理好的條目按類型分個桶,按分數排個序,就完事了。
我看了下速度,每天早上只需要1秒鐘,日報就能做出來給大家看,而且質量我覺得也還湊合。
AIHOT還有一堆體驗方面的東西,受制于篇幅,我就不提了,我雖然不是開發和程序員,這個網站上可能確實有一些我不知道的詭異的BUG,但是我畢竟做了快十年的用戶體驗設計師。
打磨體驗,扣各種細節,讓大家用的更爽,我覺得我還是擅長的。
至于未來AIHOT的計劃,我肯定還是會繼續開發下去,因為有好多好多東西受制于我的業余時間,我還沒有做呢。
比如趨勢預測,可以抓到加速曲線爆發初期還沒有特別火的事件。
比如給每個信息拽出過去1個月的相關信息。
比如我自己做一個AIHOT熱度指數等等。
不過未來的這些功能,確實可能沒辦法給大家全量開放,可能就是公司員工還有我們MCN簽約的博主專屬了。
但是我盡量去平衡,畢竟,我也希望,有更多人能用上我的產品。
如果有任何建議或者反饋,都可以在AIHOT的網頁上進行留言,會直接推送到我的飛書上,我絕對會第一時間看到的。
希望能幫助到大家,對大家有用。
網址不要忘了:
https://aihot.virxact.com/
大概就是這樣啦。
謝謝你看我的文章。
也謝謝,你用我的產品。
以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克
>/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.