DeepSeek副作用,被越來越多人發現
技術是把雙刃劍。
說在前面:AI確實是趨勢,也很大程度上提高效率,特別是DeepSeek開源之後,AI的使用更加普及,現在不管是政務系統,還是企業辦公,都要求員工要使用DeepSeek。
但同時,隨著使用人數的增加,DeepSeek的副作用,也越來越多的顯示出來。
主要有這幾個:1、一本正緊地瞎編
已經有很多人發現了,DeepSeek存在瞎編的情況,對於沒有知識儲備的人來說,很容易造成認知混亂。
為什麼會出現瞎編的情況呢?
我想主要是兩個原因:第一,訓練機制
大模型的訓練特彆強調獎懲機制,這就會讓AI傾向於取悅用戶,甚至為了完成任務而杜撰和瞎編,當然AI在生成這些信息的時候更天衣無縫,一本正緊的胡說八道,沒有知識儲備的人90%都會被唬住,信以為真。
如果這些信息被大規模傳播之後,再進行二次訓練,可能就會成為很多人的共識,估計人類的知識體系可能被顛覆,AI在這方面的效率比社交媒體的信息繭房厲害多了。
第二,語料質量
我們之前說過,開源大模型的問題在於:它的推理能力是蒸餾而來的,也就是說,它訓練的語料都是正確答案,缺少信息標註和原始推理的過程。
這可能在遇到一些錯誤信息的時候,無法識別,同時因為獎懲機制的關係,迎合用戶生成了錯誤的信息。
所以,騰訊版DeepSeek接入公眾號文章做訓練,可能真的會增加幻覺的程度。
總結一下:在一本正緊瞎編這部分,可能是多方面的問題,但如果不及時介入的話,造成的問題還是很嚴重的:AI可能提高了很多人的認知下限,但是鎖死了絕大部分人的認知上限,大家都活在AI製造的信息繭房裡。
有點科幻了。
2、被用來做信息污染
如果說一本正緊的瞎編,是AI的討好機制,或者說語料不夠的原因,那麼當這種能力被居心不良的人使用,那簡直是如虎添翼。
這幾天,看到不少人分享如何用DeepSeek製造爆文,甚至還傳出付費教程。
下面這個就是DeepSeek製造出來的爆文,流傳非常廣:確實很誇張的小作文,情節存在很多不合理的地方,但是非常有噱頭,看的人很多,轉發的也很多。
幾乎沒有人懷疑故事的真實性,但真相是,這是一篇DeepSeek寫的小作文。
這幾乎改變了整個互聯網的信息生態:以前寫一篇非虛構故事,至少要一個團隊忙活一個星期,還不一定能出爆文:有了DeepSeek,人人都可以成為咪蒙。
十分鐘生成一篇,總會有一篇爆的。
這也是為什麼最近平台開始打擊AI信息的原因。
已經產業鏈化了。
當然,除了信息污染牟利:還有人故意從源頭污染語料,影響AI抓取數據,來生成小作文炒作股市割韭菜。
在生成虛假信息方面,AI比人類的效率高多了,那以後,大家還能分清楚看到的東西,是真的還是假的嗎?
AI時代,真實成了最稀缺的東西。
肯定不能這麼下去。
3、有沒有什麼辦法來改善這種情況?
想了幾個:1、完善AI的訓練機制,增強判斷信息真偽的流程。
2、有關部門要做好兜底方案,加強對AI的監管。
圖:浙江有很深厚的創業氛圍,圖為DeepSeek在杭州的辦公大樓匯金國際大廈。
3、普通用戶要有懷疑的謹慎,盡信AI不如沒有AI。
想起來之前美國關於AI發展分成兩派:超級加速和價值對齊,目前看是超級加速派勝利了,但是價值對齊也不能丟啊。
就這樣。
- 🔥澳洲禁聞安卓APP,其它網站沒有的澳洲禁聞
- 🔥華人必看:中華文化的颶風 幸福感無法描述
- 🔥解鎖ChatGPT|全平台高速翻牆:高清視頻秒開,超低延遲
- 🔥免費PC翻牆、安卓VPN翻牆APP
- 🔥治國大道:修身、齊家、管理、治國的大智慧
來源:中產先生