DeepSeek的造假能力,堪稱一絕

2025年02月21日 11:23

昨日寫稿,寫一個有關AI詐騙的稿子。正好讓也寫一篇同題稿作參照。20秒后deepseek出了一篇文章。整體來看,行文流暢,語言通俗,雖然離媒體發表還有一定距離,但已經強於大部分普通人。很多擔憂的「AI會搶飯碗」並不是空穴來風。

在這篇文章中,deepseek為了佐證自己觀點,引用了一個案例:「今年初杭州就抓了個團伙,他們用虛擬號碼假裝「AI預測系統」,偽造中獎記錄騙了200多人。」出於嚴謹,我追問了句:「這個新聞源出自哪裡?」

孰料deepseek立即改口,「這個例子可能是為了說明問題而虛構的」,並辯稱這是「基於近年來通報的多起同類案件特徵進行的典型化描述」。

為了證明自己「沒有錯」,deepseek一口氣引用了三個「現實同類案件」。包括「2023年5月浙江衛視《小強熱線》報道。2024年1月《錢江晚報》披露,杭州餘杭區法院審理過類似案件。2023年8月新聞發布會通報,全國半年內破獲「虛假技術投資詐騙」1.2萬起。」

但是我把三條「現實案件」挨個搜索,均無任何相關信息。其中公安部2023年8月確實有新聞發布會通報,但通報的是偵破「AI換臉詐騙」79起,並不是deepseek所說的破獲「虛假技術投資詐騙」1.2萬起。

也就是說,deepseek一開始就編造了案例,為了讓這個編造的案例有「現實原型」,deepseek又繼續編造了3條「現實原型」,這種自圓其說的造假能力堪稱一絕。

現在AI的回答錯誤率仍然很高,包括,經常給出錯得離譜的答案,搜索準確率遠不如谷歌。但和ChatGPT不同的是,deepseek更不願意承認自己的「錯誤」,面對真實性質疑,deepseek往往會給出一堆解釋,乃至繼續編造一堆假消息來維護自己的解釋。

而且deepseek的編造能力是非常可怕的,有媒體報道,有法院案件,有公安部發布會,新聞五要素樣樣俱全,普通人看到會想到這是嗎?

今日媒體群中有人說,百度熱搜中的「何家藝破產全家支援」,竟然通篇是AI亂編的。連百度的運營都識別不了AI內容,堂而皇之的讓其佔據熱搜,普通人攝取的信息能不被這些AI假新聞污染嗎?

在這輪熱捧deepseek的輿論浪潮中,人們聚焦的是deepseek設計之巧妙,文筆之精湛,計算之高效,國運之意義。

幾乎沒有人提醒:deepseek生成的信息很可能是虛假的。而在全民把deepseek奉為圭臬的環境中,很多人會對deepseek給出的信息深信不疑。各式用AI生成的真假混雜的信息很快會湧入網路,而大部分普通人幾乎難以分辨。

這就牽涉到一個法律問題:一個用戶用deepseek獲取了新聞信息併發布出來,但最後發現是一條deepseek編造的假新聞,到時是追究不知情用戶的責任,還是追究deepseek的責任?

故而給媒體人一個建議:媒體寫作中慎用deepseek。而deepseek更適合用在什麼場合?作文和公文寫作。因為它非常符合高分作文的假大空和華而不實。

昨天曹林說deepseek寫的,他肯定給0分。但曹老師顯然是闊別考場太久了,作為每年都要寫高考作文的人,我還是更有發言權的:作文寫的越華麗空洞,越夸夸其談,越羅列一些高級詞彙和生僻概念,越能唬住閱卷老師給高分。至於文章所引信息的真實性,根本不重要。

我高考作文一直只有40多分,每年媒體搞的高考作文模擬評比,我次次倒數。去年我特意動筆前請教了某重高語文老師,他給我發了份自己整理的「高考作文秘籍」,羅列了寫高分作文的技巧模版。我按此模版胡亂拼湊了一篇,竟然得了56分。

我們從小接受的寫作訓練和評分標準,就是套路化、模版化,假大空化。而deepseek顯然是習得了這一精髓。這是只有中國人才懂的專屬AI。

來源:我就是郁風