從模型到痛點,中間還差一公里?

最近“模型即產品”的呼聲很高。
從Deep Research到Claude 3.7再到最近的GPT 4o,“消滅你,與你何干”的戲碼,似乎一次次在上演。
然而,在處理日常很具體的問題時,從模型到痛點,中間還總是差了一公里。
哪怕大模型99%都完成得很好,想找出那1%的錯誤,可能就要花掉我不亞於從頭再來的時間。
從通用強大的模型,到真實瑣碎的需求,中間巨大的Gap,就是從Perplexity到Monica、Liblib再到Manus的巨大空間。
體驗了那麼多產品,“問小白”是最近讓我驚喜的玩家。
幻覺問題,誰能兜底?
AI圈產品更新迭代速度很快,新玩家、不太被人熟知的名字,可能在短短幾個月就會有顛覆性的體驗升級。
說實話,我第一次知道“問小白”的時候,覺得只是一個面向AI小白的工具。
雖然有普適價值,但可能更適合我爸媽,替代性也較強。
但最近深入體驗了最新版本之後,不得不承認,日常讓我有粘性的不一定是Deep Research、4o這些說起來fancy的,還真可以是問小白。
比如DeepSeek在AI學術問題上常出現的幻覺問題、數字不準,大致看起來不影響,真的出問題就很致命。
還有GPT等很多大模型的通病,比如意圖識別很難一次到位、上下文多輪連續性失真等問題。
問小白在這些問題的基礎上,相當於多做了一層過濾和檢查。
比如我想寫一份關於AI Agent的研究報告:
問小白除了常規的資訊檢索、整合分析,多做一步的,是對工作流的把握和對資訊的二次驗證。
比如Agent相關研究報告裡,問小白的市場規模預估、複合增長率等數值,非常精確,而且有理有據。經過我的校驗比對發現也是準確無誤的。
每一個數據,都是真實可考的資料,就讓我對結果能更有信心。
並且,問小白還給了我PPT的一頁示例,從單純的文字工作,在主動引導我朝著更豐富、更圖文並茂的研報去提供方便。
多想的這一步、兩步,往往才是更有含金量的,在控制幻覺的前提下進一步拓展可用性。
相比原版DeepSeek的通用性,問小白就像是更懂我的“貼心版”,離我的需求更近一點,節省的時間就多出很多。
比如分享的小細節,很多朋友用DeepSeek就只能複製貼上,不利於整合成個人知識庫。
問小白就能把DeepSeek最新版本的優質回答,變成連結一鍵分享,讓朋友也能直接看到問答和多輪的過程。
RAG,讓資訊更精準
越深度使用越發現,問小白可能是最早能夠體驗到 DeepSeek V3-0324 最佳效果的地方。
問小白DeepSeek V3-0324已經上線,MoE架構,6850億引數,啟用引數約370億。更順暢、更沒有延遲。
DeepSeek的 R1 和 V3 問小白都是最先接入的,深度、速度都能滿足。
但效果有時候還更準確是怎麼回事呢?
原來是在DeepSeek V3-0324 基礎上,結合了問小白自研的 RAG 增強,這才使得搜尋更準,速度更快,答案直出更敏捷。
大模型 + 超強 RAG 能力,完美替代搜尋軟體,AI 時代,這才是新的搜尋入口。
問小白AI搜尋,包括日常搜尋(即時獲取最新資訊)、和專業搜尋(深度檢索更多資料)。
相比日常搜尋,專業搜尋會拆解更多搜尋角度閱讀更多網頁,資訊網更深更廣,可以說非常細節了。
Chinese SimpleQA 評測顯示,問小白 DeepSeek R1 以91.60%的F-score 成績顯著領先GPT-4o及國內主流RAG解決方案,成為中文RAG技術標杆,為使用者提供更加準確、及時、可靠的AI問答體驗。
資訊多了好,還是深了好?
很明顯的一個特點是,問小白每次會請求 3-5 個搜尋引擎響應,日常搜尋差不多索引100多個網頁,專業搜尋最高可達 200+網頁。
同時還有包括多模態、多領域的高質量知識庫內容,每次搜尋有 20-50 個領域知識庫加持。
關鍵讀取還很快,答案出得比我看標題的速度還快,實際生產力場景我就是在被推著走。
雖然很多時候多也未必好,但在“全”的場景上,問小白已經有了量變作為差異。
而且一些專業的冷門的問題也可以覆蓋。
比如我讓對比RAG和Embedding,想要有論文和海外學術的資料支撐:
問小白就像一個眼裡更有活的超級助手,看一步、想三步。
除了論文,還有基於論文的延伸分析和更多場景給到我,一鍵生成ppt這樣的技能肯定不在話下。
本身在RAG框架下,問小白做了很細緻的系統設計,關鍵詞捕捉、意圖分別、對映關係,拆的更準,所以結果更優。
而有驚喜的是,打通了內容後鏈路更長的下一步。
表面上我是想研究Agent或者RAG,但是不是用PPT或者網頁呈現更能滿足我的需求呢?
問小白就替我想到了,直接在結尾可以一鍵轉成精美的網頁。
模型的競爭逐漸寡頭化,但對需求的理解真還有待深挖。
比寫文字更進一步的,是把東西做出來。
對於大部分普通使用者或者興趣玩家,而更順暢的程式碼輔助工具,不一定是Cursor,可能就是問小白這樣更加線性又自然的載體。
還有新的內測功能,“小白研報”,看示例是不亞於Manus等Agent類產品的效果。
比如下面這個雷軍與小米的成功方法論拆解:
https://www.wenxiaobai.com/share/deep-research?url=https://wy-static.wenxiaobai.com/deep-research/f16499e6-8131-42ca-aadd-2f527f9633ee.html
基於研報一鍵生成的網頁,也非常簡潔漂亮。
我自己在做產品、看論文、寫東西的時候,甚至也逐漸習慣了網頁化閱讀,純文字可能不夠清晰,順手做個網站出來甚至加一些互動,對我獲取資訊的效率還能再提高。

一鍵將AI智慧體研報變成互動網站

元石大模型
到這一步,其實已經覺得問小白是一個不錯的AI應用產品了。
但還不夠。
隨著產品和模型邊界的模糊,一端向用戶真實場景和需求延伸,另一端的觸角,依然需要向模型深挖。
問小白自主研發的"元石大模型"已透過備案,作為國內最早採用MOE架構的廠商,其開源的輕量級大模型 MetaStone-R1-7B在同級別模型中實現了數學、程式碼兩個類別的 SOTA 效果。
MoE(混合專家模型)架構下,最知名的模型產品還得是DeepSeek。問小白可以說在架構設計上與DeepSeek有很多相通的底層邏輯。
這也是“元石大模型 + DeepSeekR1/V3”天然更契合、效果更好的原因。
可以說,問小白 = 最一流的大模型 + 最一流的檢索交叉驗證能力——因為有了強大的雙模型驅動,以及高分的RAG搜尋能力,兩相疊加提供了更強有力的技術後盾。
技術儲備、自研能力、模型探索,這些才是很多優秀表現背後更基石的東西。
不僅如此,問小白研發團隊,還已經將很多最新的研究成果開源。
比如開源 MetaStone-L1-7B 模型, 在同級別模型中實現了數學、程式碼效果的差異化優勢,用 7B 的體量“以小博大”,在效能上超過 Claude-3.5-Sonnet-1022、GPT4o-0513,以及 Deepseek R1 的同體積蒸餾模型。
「多模態、搜尋、推薦」這三大核心技術棧,能同時具備技術能力的團隊極少,而問小白背後的元石科技隱隱有了一些黑馬的勢頭。
雖然問小白的產品流量已經悄悄到達了榜單前列,但團隊和公司依然很低調,不會用“飢餓營銷”的方式渲染緊張感。
反而這是一款讓我覺得輕鬆和舒服的產品,不會焦慮不會fomo,隨著踏踏實實的底層技術一起越來越好,也讓生活和工作更輕鬆、更美好。
何妨試一試呢?
也許就會開啟新的天地!

相關文章