沖熱搜!Deepseek玩弄大學生於股掌之間
在人工智慧飛速發展的當下,對於廣大學生和科研工作者而言,一個關鍵問題隨之而來:藉助這樣的前沿大模型寫論文,真的靠譜嗎?
3月28日,話題#防止DeepSeek亂編文獻的方法#衝上熱搜。記者注意到,用AI工具寫論文「被坑」的經歷,並非鮮見。
問AI一個問題,它給了你一個特別詳細、豐富,看上去好有邏輯的答案。但當我們去核實時,卻發現這些信息完全是虛構的?這就是著名的「AI幻覺」現象。AI幻覺指的是AI會生成看似合理但實際確實錯誤的信息,最常見的表現就是會編造一些不存在的事實或者細節。
據「科普中國」,造成AI幻覺問題的成因很多,例如:基於統計關係的預測;訓練數據的局限性;過擬合問題,即因為記住了太多錯誤或者無關緊要的東西,從而讓AI對訓練數據中的雜訊過於敏感;有限的上下文窗口;生成流暢回答的設計等等。
近日,中國青年報邀請了3位專家學者,一起聊聊技術浪潮中如何守護年輕人的思辨能力。中國人民大學新聞學院教授盧家銀就指出,在知識建構上,AI生成的虛假學術成果,可能扭曲青年對科學方法論的理解,削弱其「假設-驗證」的科研邏輯訓練。在思維發展上,AI謠言通過演算法推薦的「信息繭房」形成邏輯閉環,不利於批判性思維的培養。
(中國青年報 2025-03-28 05版)
北京師範大學教育學部教授、教育技術學北京市重點實驗室副主任李艷燕建議,年輕人可以把AI看作一位平等對話的智者,通過引導與AI的對話互動,促進個體思維鏈的形成,並校準認知偏差。這種去權威化的思辨訓練,可以幫助年輕人在與AI的對話中保持獨立判斷,實現認知躍遷。北京郵電大學馬克思主義學院副教授宋林澤認為,AI輸出的內容只是一個認知起點,而不是終點。大學生需要主動去驗證它的內容,比如查閱權威來源、對比不同觀點,甚至直接與領域專家交流。這種驗證過程,不僅能幫助我們更全面地理解問題,還能讓我們在面對複雜信息時更有判斷力。如何應對AI幻覺呢?AI工具研究者田威提到,想要獲得準確答案,提問方式很關鍵。與AI交流也需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準確。總結成提示詞技巧就是下面四種問法:
1.設定邊界:「請嚴格限定在2022年《自然》期刊發表的研究範圍內」;
示例:「介紹ChatGPT的發展歷程」→「請僅基於OpenAI官方2022-2023年的公開文檔,介紹ChatGPT的發展歷程」
2.標註不確定:「對於模糊信息,需要標註『此處為推測內容』」;
示例:「分析特斯拉2025年的市場份額」→「分析特斯拉2025年的市場份額,對於非官方數據或預測性內容,請標註[推測內容]」
3.步驟拆解:「第一步列舉確定的事實依據,第二步展開詳細分析」;
示例:「評估人工智慧對就業的影響」→「請分兩步評估AI對就業的影響:
1)先列出目前已發生的具體影響案例;
2)基於這些案例進行未來趨勢分析」。
4.明確約束:明確告訴AI要基於已有事實回答,不要進行推測。
示例:「預測2024年房地產市場走勢」→「請僅基於2023年的實際房地產數據和已出台的相關政策進行分析,不要加入任何推測性內容」。(詳細請戳全文)
在AI自己的答案中提到,可以通過指令約束、工具驗證和人工審核三重保障,大幅降低AI虛構文獻的風險。值得注意的是,它還將「人工審核」放到了「最後防線」的重要位置。
田威提醒,AI幻覺並非沒有好處。有時候與其把AI幻覺當成缺陷,不如把它看作創意的源泉。在寫作、藝術創作或頭腦風暴時,這些「跳躍性思維」反而可能幫我們打開新世界的大門。
AI幻覺的本質——AI在知識的迷霧中,有時會創造出看似真實,實則虛幻的「影子」。但就像任何工具一樣,關鍵在於如何使用。
歸根結底,在這個AI與人類共同進步的時代,重要的不是責備AI的不完美,而是學會與之更好地協作。
- 🔥澳洲禁聞安卓APP,其它網站沒有的澳洲禁聞
- 🔥華人必看:中華文化的颶風 幸福感無法描述
- 🔥解鎖ChatGPT|全平台高速翻牆:高清視頻秒開,超低延遲
- 🔥免費PC翻牆、安卓VPN翻牆APP
- 🔥治國大道:修身、齊家、管理、治國的大智慧
來源:中國青年報