今年春季學期開學,各大高校紛紛宣布接入DeepSeek,學生利用AI工具輔助論文寫作現象已愈發普遍,而使用規范和學術誠信問題也隨之而來。
今年以來,不少高校紛紛推出新的政策為AI“立規矩”,以規范學生使用生成式人工智能的行為。
學術寫作中AIGC使用邊界應如何界定?除了“立規矩”,是否有更加“硬核”的治理機制?面對AI發展浪潮,高校要如何引導學生合理使用?對此,新京報記者采訪了多所高校的教授,探討這些熱點話題。
行動
多所高校發文規范A I使用邊界
北京航空航天大學一位從事理工科研究的博士研究生告訴記者,在科研過程中,AI會被當作輔助工具,但是鑒于AI在某些特定領域的水平有限,無法完全讓AI替代真人來進行研究和學術寫作。
據深圳大學大數據系統計算技術國家工程實驗室教授陳杰的觀察,目前在高校,相當多的學生會使用人工智能輔助學習生活。“研究生層次的學生能夠比較規范地使用這些工具,本科階段的同學對于人工智能的使用相對不足。”
“隨著AI的普及和其功能愈發強大,出現了學生借助AI寫作業、甚至寫論文的情況,我們學校也在對AI寫作進行規范。”中國傳媒大學文化產業管理學院法律系主任鄭寧說道。
高校紛紛行動起來。復旦大學打響“第一槍”,于2024年末正式發布《復旦大學關于在本科畢業論文(設計)中使用AI工具的規定(試行)》,系國內高校首個專門針對AI工具在畢業論文、畢業設計中的規范化管理文件。其中,《規定》明確了“六個禁止”使用AI工具的范圍,引發關注。
隨后,深圳大學發布的《深圳大學學術道德專門委員會關于進一步規范學術論文發表的指導意見》;中國傳媒大學本科生院下發了《關于加強2024年畢業論文(設計)中規范使用人工智能管理的通知》;北京師范大學新聞傳播學院聯合華東師范大學發布《生成式人工智能(AIGC)學生使用指南》;上海交通大學等高校也紛紛出臺相關規范文件,為AI“立規矩”。
探討
學術寫作中A IGC的使用邊界需探討
對于AI是否可以使用、在哪些方面可以使用,多所高校都作出了嚴格規定。
復旦大學要求,禁止在研究方案設計、創新性方法設計、算法(模型)框架搭建、畢業論文結構設計、研究選題、研究意義及創新性總結、研究假設提出、數據分析、結果分析與討論以及結論總結等關鍵環節使用AI工具。
2月25日,深圳大學最新發布的《深圳大學學術道德專門委員會關于進一步規范學術論文發表的指導意見》中提到,一般不得使用人工智能工具直接生成代表作者觀點的論述。
北京郵電大學2024年9月出臺的《北京郵電大學2025屆本科畢業設計(論文)指導手冊》,第八章中明確規定:生成式人工智能技術僅可用于文獻調研、數據處理、引文整理等輔助工作,嚴禁直接應用于開題報告、中期報告和論文撰寫。
北京郵電大學教授鄂海紅指出,目前通過技術能夠識別出一段話中使用AI生成的概率,標注疑似大模型生成的段落,但是否屬于學術不端行為則是另一個問題,其中存在的邊界問題仍需要探討。
我國相關主管機構也在推動界定學術倫理邊界。2024年9月,中國科學技術信息研究所在科技部科研誠信監督司指導下,出臺了《學術出版中的AIGC使用邊界指南2.0》(下稱《指南》),其中對圖表制作和文字撰寫進行了邊界規范。
例如,在文字撰寫方面,《指南》明確,AIGC不應該用來產生研究假設、直接撰寫整篇論文文本或解釋數據、得出科學結論等;但AIGC可以作為高標準語言檢查器,提高稿件可讀性和寫作質量,以消除研究傳播中的語言障礙。
對此,復旦大學則有更嚴格的要求,禁止直接使用AI工具生成正文文本、致謝或其他組成部分;禁止進行語言潤色和翻譯。
還有一些高校試圖通過劃定一定的比例來進行限制。北京師范大學新聞傳播學院聯合華東師范大學聯合發布《生成式人工智能(AIGC)學生使用指南》中明確,學生在使用生成式人工智能完成作業時,需標紅相關內容,且直接生成的內容不能超過全文的20%。天津科技大學則要求,論文中智能生成比例不超40%。
對于這一核心問題,陳杰認為,AI工具可以做一些文章論述的潤色,在文字通順程度、減少錯別字等方面進行提升。此外,一些實驗結果的展示,借助AI的幫助進行表格生成,可以更加直觀和高效。
“在學術論文中,我們在投稿的時候,但凡用到人工智能去做潤色的部分,都會要求主動申報。同時嚴格禁止使用人工智能去形成觀點,這是被列入違反學術誠信的操作。”陳杰強調,“學生要是被發現使用了人工智能來寫作,肯定就是判0分或者重做了。”
此外,不少高校對AI使用要求“留痕”。復旦大學強調,在使用AI工具時,學生必須在本科畢業論文承諾書中明確披露所使用的AI工具名稱和版本號、使用時間、具體用途、AI工具生成的內容或提供的建議以及AI工具在論文中的具體使用部分。同時,學生還需保留AI工具處理之前的相關重要材料,以備指導老師或評審專家對使用AI工具的情況進行檢查和質詢。
監管
用技術高效識別A I偽造內容
科研誠信問題已經成為當前科技政策部門、出版機構和科研機構共同關注的焦點問題。記者注意到,目前已有技術團隊在行動。
北京郵電大學從事多模態大數據處理和理解技術研究的鄂海紅教授團隊,受科技部等部門委托,“用技術解決技術問題”,高效識別由AI生成或者篡改的實驗數據和圖片。
新一輪AI技術發展為學術不端檢測帶來哪些新挑戰?鄂海紅介紹,一方面,與過去學生在網上“手動”拼湊寫論文相比,如今AI生成內容量大幅激增,過去靠專家審稿發現圖文表述不一致等問題來識別造假,但在AI技術普及的當下,造假已規模化。
另一方面,傳統高校學位論文查重主要聚焦于文本相似度檢測,而隨著人工智能技術的突破性發展,諸如AI圖像生成與編輯等新型學術創作形式逐漸涌現。為應對層出不窮的新學術不端行為,必須提升檢測能力,讓高校查重維度更全、顆粒度更細,讓檢測更智能。
在圖像學術不端行為自動化檢測方面,團隊取得了重大進展。鄂海紅告訴新京報記者,目前團隊研發成果能夠判斷一篇文章中是否存在同其他已發表論文圖像存在重復區域的復用圖像,該檢測技術能夠抵抗各類篡改行為(包括縮放、旋轉、翻轉、亮度、對比度、顏色操作)的干擾。
“在AI生成圖像檢測方面,隨著技術的進步,人眼越來越難以判別圖像的真實與否,學術出版界對圖像生成偽造檢測技術的需求日益增加。通過相關技術手段,我們能使用主流生成模型,反向還原圖像原始噪聲并重新生成一張重構圖像,輸入圖像和重構圖像的差別叫做重構損失,作為判斷圖像是否為AI篡改或生成的依據。”她進一步解釋,“真實圖像的重構損失通常較大,相比生成式偽造圖像差別非常顯著。”
此外,近年來還出現了以批量生產虛假論文為目的的“論文工廠”,這些論文往往具有高度相似的寫作結構以及圖文相關性特征,給傳統檢測方法帶來了巨大挑戰。鄂海紅指出,針對這些復雜場景,團隊進一步拓展技術邊界,開發了多模態數字指紋和獨立檢測機制,寫作結構的檢測準確率超過90%,力求全面覆蓋各類學術不端行為。
2023年9月,鄂海紅教授團隊與萬方數據公司聯合研發的“文察多要素綜合察驗服務”(簡稱文察)已在萬方數據科研誠信服務平臺上線,面向全國所有高校、科研院所、醫藥衛生機構等提供在線大規模自動化論文圖像、文本相似性、AIGC生成、參考文獻風險等多維度綜合檢測察驗服務。
記者了解到,目前所有高校都會要求學生學位論文,尤其是碩博士論文,在送審前進行查重,但一些專門的學科領域中圖片問題頻發,以及目前大語言模型工具的泛用,僅檢測文本相似性不足以更全面地揭示一篇論文的科研誠信風險問題,需要能檢測更多元素的工具來輔助檢測工作,很多高校已經開始使用文察。學術出版界的一些學術期刊,在投稿、審稿期間也會委托平臺開展察驗服務。
“隨著大模型的發展,服務需求預計會更大。只要有違法行為,就會有相應制止手段。”鄂海紅說道。
引導
開設人工智能通識課 幫學生正確使用AI
面對人工智能浪潮,高校應該如何應對?深圳大學大數據系統計算技術國家工程實驗室教授彭小剛認為,人工智能是新的趨勢,不可阻擋,各高校應該積極引導。“大學開設人工智能通識課,我覺得是非常有必要的。就像當年開設計算機基礎課程一樣,人工智能的使用能力未來將會成為標配。”同時,對于人工智能倫理問題的思考也同樣重要。“人類不能無腦地任由人工智能來控制你,要知道怎樣去用好它。”
彭小剛強調,關于人工智能的課程要分層次,明晰什么是人類應該掌握的,什么是可以用人工智能來替代的。“單純地禁止用AI,或是什么事都用AI,這兩種態度都是不對的。”
記者注意到,從2024年起,全國許多高校陸續開設了人工智能通識課,將人工智能教育納入通識教育的范疇。2025春季學期開學伊始,深圳大學宣布與騰訊云達成合作,共同推出基于DeepSeek的人工智能通識課程。深大學子本學期即可選課學習。“我們在人工智能通識課中也專門設置了一個章節介紹生成式人工智能的一些倫理和安全問題,希望可以通過課程規范大家在使用人工智能中的倫理規范。”陳杰說道。
2月24日是彭小剛本學期所負責教授的人工智能通識課第一次開課,教室座無虛席。這門課程一周四節,共計3個學分,本學期開設了4個班級的課程。“反響很熱烈,來的同學比預期的多,連續換了兩次更大的教室上課,才基本滿足學生選課需求。”
在鄂海紅看來,幫助學生學會在論文寫作中正確使用AI大模型,一方面要加強學術誠信教育。作為教育者,應著重培養學生對AI工具的批判性使用能力,明確AI的本質是輔助工具,其文本生成、數據分析等功能不能替代研究者的學術判斷與創新思維。因此,學生不僅要掌握AI在提升文獻整理、語法修正等方面的技術優勢,還要清楚認識到AI的使用邊界,警惕其可能引發的學術剽竊、數據失真等風險。
來源:《新京報》