一定要看,DeepSeek的副作用,被越來越多人發現了

1545個字 閱讀時長:5分鐘
中產先生 | 洞見時代 發現價值 講述生活
技術是把雙刃劍。
說在前面:

AI確實是趨勢,也很大程度上提高效率,特別是DeepSeek開源之後,AI的使用更加普及,現在不管是政務系統,還是企業辦公,都要求員工要使用DeepSeek。

但同時,隨著使用人數的增加,DeepSeek的副作用,也越來越多的顯示出來。

主要有這幾個:

1、一本正緊地瞎編

已經有很多人發現了,DeepSeek存在瞎編的情況,對於沒有知識儲備的人來說,很容易造成認知混亂。

為什麼會出現瞎編的情況呢?
我想主要是兩個原因:
第一,訓練機制
大模型的訓練特別強調獎懲機制,這就會讓AI傾向於取悅使用者,甚至為了完成任務而杜撰和瞎編,當然AI在生成這些資訊的時候更天衣無縫,一本正緊的胡說八道,沒有知識儲備的人90%都會被唬住,信以為真。

如果這些資訊被大規模傳播之後,再進行二次訓練,可能就會成為很多人的共識,估計人類的知識體系可能被顛覆,AI在這方面的效率比社交媒體的資訊繭房厲害多了。

第二,語料質量

我們之前說過,開源大模型的問題在於:

它的推理能力是蒸餾而來的,也就是說,它訓練的語料都是正確答案,缺少資訊標註和原始推理的過程。

這可能在遇到一些錯誤資訊的時候,無法識別,同時因為獎懲機制的關係,迎合使用者生成了錯誤的資訊。

所以,騰訊版DeepSeek接入公眾號文章做訓練,可能真的會增加幻覺的程度。

總結一下:

在一本正緊瞎編這部分,可能是多方面的問題,但如果不及時介入的話,造成的問題還是很嚴重的:

AI可能提高了很多人的認知下限,但是鎖死了絕大部分人的認知上限,大家都活在AI製造的資訊繭房裡

有點科幻了。

2、被用來做資訊汙染

如果說一本正緊的瞎編,是AI的討好機制,或者說語料不夠的原因,那麼當這種能力被居心不良的人使用,那簡直是如虎添翼。

這幾天,看到不少人分享如何用DeepSeek製造爆文,甚至還傳出付費教程
下面這個就是DeepSeek製造出來的爆文,流傳非常廣:
確實很誇張的小作文,情節存在很多不合理的地方,但是非常有噱頭,看的人很多,轉發的也很多。

幾乎沒有人懷疑故事的真實性,但真相是,這是一篇DeepSeek寫的小作文。

這幾乎改變了整個網際網路的資訊生態:

以前寫一篇非虛構故事,至少要一個團隊忙活一個星期,還不一定能出爆文:
有了DeepSeek,人人都可以成為咪蒙
十分鐘生成一片,總會有一篇爆的。
這也是為什麼最近平臺開始打擊AI資訊的原因。
已經產業鏈化了。
當然,除了資訊汙染牟利:
還有人故意從源頭汙染語料,影響AI抓取資料,來生成小作文炒作股市割韭菜。
在生成虛假資訊方面,AI比人類的效率高多了,那以後,大家還能分清楚看到的東西,是真的還是假的嗎?
AI時代,真實成了最稀缺的東西
肯定不能這麼下去。
3、有沒有什麼辦法來改善這種情況?
想了幾個:
1、完善AI的訓練機制,增強判斷資訊真偽的流程。

2、有關部門要做好兜底方案,加強對AI的監管。

3、普通使用者要有懷疑的謹慎,盡信AI不如沒有AI。

想起來之前美國關於AI發展分成兩派:
超級加速和價值對齊,目前看是超級加速派勝利了,但是價值對齊也不能丟啊。
就這樣。
鵝烏衝突,跟你想的有點不一樣。
這周事態走向變來變去,讓人無所適從,我們對鵝烏衝突中:
美國、鵝烏、歐洲、中國之間的利益關切做了一些梳理,搞清楚這些,就不會被口頭上的表述所迷惑。
可以繼續閱讀:跟大家想的不太一樣
喜歡此內容的人還喜歡

美國為何變臉?

10個朋友讀過   趨勢
取代房地產

500個點贊局勢
2025年十大懸念

閱讀10萬+   深度

相關文章