DeepSeek副作用,被越來越多人發現

2025年02月28日 14:06

技術是把雙刃劍。

說在前面:AI確實是趨勢,也很大程度上提高效率,特別是開源之後,AI的使用更加普及,現在不管是政務系統,還是企業辦公,都要求員工要使用DeepSeek。

但同時,隨著使用人數的增加,DeepSeek的副作用,也越來越多的顯示出來。

主要有這幾個:1、一本正緊地瞎編

已經有很多人發現了,DeepSeek存在瞎編的情況,對於沒有知識儲備的人來說,很容易造成認知混亂。

為什麼會出現瞎編的情況呢?

我想主要是兩個原因:第一,訓練機制

大模型的訓練特彆強調獎懲機制,這就會讓AI傾向於取悅用戶,甚至為了完成任務而杜撰和瞎編,當然AI在生成這些信息的時候更天衣無縫,一本正緊的胡說八道,沒有知識儲備的人90%都會被唬住,信以為真。

如果這些信息被大規模傳播之後,再進行二次訓練,可能就會成為很多人的共識,估計人類的知識體系可能被顛覆,AI在這方面的效率比厲害多了。

第二,語料質量

我們之前說過,開源大模型的問題在於:它的推理能力是蒸餾而來的,也就是說,它訓練的語料都是正確答案,缺少信息標註和原始推理的過程。

這可能在遇到一些錯誤信息的時候,無法識別,同時因為獎懲機制的關係,迎合用戶生成了錯誤的信息。

所以,版DeepSeek接入文章做訓練,可能真的會增加幻覺的程度。

總結一下:在一本正緊瞎編這部分,可能是多方面的問題,但如果不及時介入的話,造成的問題還是很嚴重的:AI可能提高了很多人的認知下限,但是鎖死了絕大部分人的認知上限,大家都活在AI製造的信息繭房裡。

有點科幻了。

2、被用來做信息污染

如果說一本正緊的瞎編,是AI的討好機制,或者說語料不夠的原因,那麼當這種能力被居心不良的人使用,那簡直是如虎添翼。

這幾天,看到不少人分享如何用DeepSeek製造爆文,甚至還傳出付費教程

下面這個就是DeepSeek製造出來的爆文,流傳非常廣:確實很誇張的小作文,情節存在很多不合理的地方,但是非常有噱頭,看的人很多,轉發的也很多。

幾乎沒有人懷疑故事的真實性,但真相是,這是一篇DeepSeek寫的小作文。

這幾乎改變了整個的信息生態:以前寫一篇非虛構故事,至少要一個團隊忙活一個星期,還不一定能出爆文:有了DeepSeek,人人都可以成為咪蒙。

十分鐘生成一篇,總會有一篇爆的。

這也是為什麼最近平台開始打擊AI信息的原因。

已經產業鏈化了。

當然,除了信息污染牟利:還有人故意從源頭污染語料,影響AI抓取數據,來生成小作文炒作股市

在生成虛假信息方面,AI比人類的效率高多了,那以後,大家還能分清楚看到的東西,是真的還是假的嗎?

AI時代,真實成了最稀缺的東西。

肯定不能這麼下去。

3、有沒有什麼辦法來改善這種情況?

想了幾個:1、完善AI的訓練機制,增強判斷信息真偽的流程。

2、有關部門要做好兜底方案,加強對AI的監管。

圖:浙江有很深厚的創業氛圍,圖為DeepSeek在杭州的匯金國際大廈。

3、普通用戶要有懷疑的謹慎,盡信AI不如沒有AI。

想起來之前關於AI發展分成兩派:超級加速和價值對齊,目前看是超級加速派勝利了,但是價值對齊也不能丟啊。

就這樣。

來源:中產先生