杜撰虛假文獻(xiàn)、引用不存在的名人觀點、編造錯誤數(shù)據(jù)、將舊事當(dāng)作新聞傳播……基于不完整信息生成看似合理實則錯誤的答案,讓人難以分辨真?zhèn)?,這種現(xiàn)象被業(yè)界稱為“AI幻覺”。
“AI幻覺”是大模型天然存在的隱性缺陷。具體表現(xiàn)在互聯(lián)網(wǎng)上,大模型只會單純搜索內(nèi)容進(jìn)行推理,無法像人一樣判斷真假,且不對信息本身的真實性負(fù)責(zé)。4月25日,李彥宏在百度AI開發(fā)者大會上坦言deepseek存在幻覺多、速度慢等痛點,將“AI幻覺”這一概念再次拉入大眾視野。這個詞匯早在2023年就顯跡在互聯(lián)網(wǎng)上,但時至今日仍在各大社交平臺有具象化呈現(xiàn)。
例如在小紅書平臺,“DeepSeek生成假的參考文獻(xiàn)怎么辦”相關(guān)帖子達(dá)到5萬條;微博上,#防止DeepSeek亂編文獻(xiàn)的方法#的話題也沖上熱搜。加之一些人不經(jīng)判斷就依賴AI走 “捷徑”,相關(guān)爭議持續(xù)不斷。
在AI的浪潮下,如何兼顧正確與效率的同時,守護(hù)自己的思辨能力?
破解AI幻覺,開“AI + 教育”落地新局
面對AI大模型“一本正經(jīng)式地胡說八道”,若想避免被誤導(dǎo),一方面需要正確看待AI生成、輸出的內(nèi)容,另外一方面,與AI良性互動,而非對其輸出結(jié)果全盤接受。中國人民大學(xué)新聞學(xué)院教授盧家銀指出,這種現(xiàn)象在知識建構(gòu)與思維發(fā)展層面存在雙重隱患:在知識建構(gòu)上,AI生成的虛假學(xué)術(shù)成果,可能扭曲青年對科學(xué)方法論的理解,削弱其“假設(shè)-驗證”的科研邏輯訓(xùn)練。在思維發(fā)展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環(huán),不利于批判性思維的培養(yǎng)。
因此,AI輸出內(nèi)容應(yīng)被視作認(rèn)知起點而非終點。我們需要主動驗證信息可靠性,例如查閱權(quán)威信源、對比多元觀點,甚至與領(lǐng)域?qū)<抑苯咏涣?。除了小心?jǐn)慎使用大模型之外,酷開探索出“AI + 教育”場景化落地的另一條路徑——讓大模型僅承擔(dān)宏觀調(diào)度與規(guī)劃功能,即先由大模型拆解分析題目,再依據(jù)具體需求調(diào)用適配工具解題。這一思路在搭載教育智能體的酷開AI學(xué)習(xí)機(jī)Y41 Air上得到實踐印證。
從“答題工具”到“思考輔助者”,AI如何才能講好一道題
真正有“人味兒”的AI教育,始于對技術(shù)邊界的清醒認(rèn)知,酷開要做的是讓AI成為“思考輔助者”,而非答題“工具”??衢_AI學(xué)習(xí)機(jī)Y41 Air搭載的教育智能體,打破通用大模型的數(shù)據(jù)泛化問題,通過整合K12全學(xué)段10億級去重題庫,用大量的基礎(chǔ)數(shù)據(jù)規(guī)避AI“天馬行空”式的推理的干擾,從底層夯實了大模型解題的準(zhǔn)確性與可解釋性。
當(dāng)學(xué)生提問時,學(xué)習(xí)機(jī)會遵循“先匹配、再推演”的雙軌邏輯,首先在海量題庫中精準(zhǔn)匹配相似題型,再通過大模型進(jìn)行解題路徑的分層推演,從源頭上降低AI幻覺風(fēng)險。以初中幾何題為例,酷開AI學(xué)習(xí)機(jī)Y41 Air 如同私人“家教”般,不僅呈現(xiàn)答案與完整推理過程,更通過一對一提問引導(dǎo)的方式,促使學(xué)生觀察圖形特征、自主推導(dǎo)輔助線添加邏輯。
這種在解題過程中融入個性化互動引導(dǎo)的設(shè)計,既提升了人機(jī)交互的擬真感,更著力培養(yǎng)學(xué)生主動思考與分析的思維能力,與傳統(tǒng)AI答題工具形成了本質(zhì)區(qū)隔。
當(dāng)前AI教育正站在應(yīng)用普及的十字路口??衢_學(xué)習(xí)機(jī)展現(xiàn)的技術(shù)路徑表明,化解AI幻覺風(fēng)險不能單純依賴模型優(yōu)化,更需要從教育本質(zhì)出發(fā)重構(gòu)人機(jī)關(guān)系。在AI與教育深度融合的進(jìn)程中,如何平衡技術(shù)能力與教育邏輯,酷開的實踐給出了一個值得關(guān)注的答案。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!