近日,美國《高等教育紀事》刊登了夏洛特皇后大學歷史學教授凱文·甘農的一篇評論文章《有時我們拒絕人工智能是有充分理由的》,其副標題為“高等教育機構在制定ChatGPT等工具的教師使用政策時,為何需要傾聽反對者的聲音”。甘農在文章中指出,當高校制定生成式人工智能(AI)政策時,必須把最具批判性的教師請到桌邊,否則一些真正棘手的風險會被忽視。在此基礎上,他還梳理了若干“需要直面的問題”。
這篇文章倒是讓我想到了另外一個非常重要的問題:
在關于“是否該約束學生使用AI”的爭論里,我們常把目光盯在學生身上,卻忽視了一個更為關鍵的事實,即大多數教師及校園管理者,應該是最早的AI使用者。正是由于他們對AI的恐懼,才制定了許多看似為學生的學術誠信負責的“一刀切”禁令。但大家卻忘記了,其實教師群體才應該是校園里首批也是最需要被要求合規使用AI的人。現實情況是,這些制定AI使用規則的人,卻很少為自己的使用設定同等嚴格的要求并增加透明度。
對此,我想說,與其盯住學生,不如先從教師開始,讓AI成為教學能力的一部分,而不是讓制度變成一紙“禁用條款”。
AI使用的普遍性:
不僅學生在用,教師也在用
目前來看,在世界范圍內,師生使用AI的情況非常普遍。
美國坎貝爾大學的學術技術服務部今年3月6日發布了題為《高等教育中的人工智能:近期師生調查的元綜述》的報告。該報告調查了全球師生使用AI的情況,結果如下:
學生的AI使用率高且呈上升趨勢。全球86%的學生在學習中使用AI,其中54%每周均使用,近1/4每天都用。其中,面向15國的調查稱,80%的本科生用過生成式AI。英國高等教育政策研究所的研究顯示,92%的本科生在使用AI,較上年的66%相比,出現激增現象。
學生使用的AI工具以ChatGPT最為常見,其次為Grammarly、Copilot;用于檢索、語法與寫作改進、摘要和改寫、起草初稿、解釋難點、啟發選題等。
學生使用AI的主要顧慮,包括AI幻覺,有53%的人擔憂AI會出錯;也有部分人擔心暴露隱私并導致過度依賴;另有55%的人擔心對學術誠信會有不利影響。
另外,教師的AI使用意向強烈,有93%的人預計在兩年內會擴大使用,但實際使用深度不足。全球教師中約有61%用過,但88%僅“輕度”使用過。
多數高校領導認為,不到半數教師把AI納入日常工作。
教師主要將AI用于課程設計支持、行政自動化、個性化教學與反饋等。他們對AI的擔憂通常集中在偏見與公平、數據安全與隱私、學術誠信與批判性思維。
由上述調查數據可見,“完全不用AI”的學生已是少數甚至是極少數,而課堂教學早已進入了“人機共寫、共學”的新常態。這些發現一方面解釋了為何教師在核驗與評估上感到“工作量上升”,另一方面也說明僅以“禁學生”為核心的政策與真實教學場景脫節。
請允許我直言,在AI使用的過程中,“只管學生”的政策實際上已經天然失衡。當教師本身已在不同環節中廣泛使用AI,而制度只對學生“裁判”,不對教師“執法與示范”,課堂就會陷入“多頭政策、個別課堂以個人好惡為據”的碎片化治理。比如,有些教師對學生使用AI聽之任之,有些教師則堅決拒絕并“嚴格執法”,從而導致師生間的信任減弱,或者政策執行不到位。
AI使用的必然性:
從學習現場到職場入口的“基礎素養”
從2022年11月30日ChatGPT誕生到現在,3年過去了,AI的發展早已突飛猛進,與3年前的情形也早已不可同日而語。就運用而言,無論在世界各地還是校園內外,企圖用各種方法禁止在校學生使用AI的努力均已宣告失敗,在現實中完全行不通。
現在的問題是,從各種研究及其相關報告中可以看出,未來若“不教會學生使用AI”同樣行不通。因為AI不僅是學習的工具,而且是未來能力結構的系統性更新。
世界經濟論壇《2025年就業未來報告》顯示,未來5年,技術類技能的重要性上升最快,其中“AI與大數據”位居榜首;與此同時,創造性思維、韌性、好奇心與終身學習等“人類核心能力”與AI素養呈現互補關系。也就是說,不會使用、評估與解釋AI,正在像“不會用電子表格”一樣成為顯性短板。
因此,從教育使命來看,高校若以“禁止替代訓練”,等于把訓練責任外包給社會與用人單位:學生一出校門就會在真實任務中被迫學習“如何與AI共事”,卻缺乏學術場景中的規范、實證與批判性方法。
政策難點與矛盾之處
甘農在文章中提醒我們:抵觸并不全是“落伍”,很多擔憂指向真實代價與價值沖突。他概括出幾類問題,恰恰是未來政策制定繞不開的“硬骨頭”。
第一,“省時神話”與幻覺,效率敘事背后的核驗成本。
在各種宣傳里,AI像一把“時間剪刀”,可以為人們節約大量時間。然而,在真實課堂里,凡涉及事實與引用的文本,師生都要付出核驗成本,否則“省下的時間”會以“錯誤的后果”加倍償還。因此,把AI當“草稿機”而非“成品機”,并將證據鏈與外部來源作為作業常規要求,才是將效率與可靠性“串起來”的唯一方式。
第二,學術誠信與版權/引用,檢測焦慮之外的制度博弈。
若沿用“期末一次性交付”的作業形式,只盯著學生“是否作弊”,必然把矛盾推向類似于“檢測器軍備競賽”。事實上,對使用AI的引用與標注,不僅是學術禮儀,也是合規實踐。
第三,法律與合規,從“個體使用”到“機構責任”的傳導。
當AI被嵌入校內平臺與流程,日志留存、數據出境、第三方共享等問題會從“個人工具”迅速升級為“機構合規”。一旦發生糾紛,學校可能被要求保存交互日志并履行通知義務。政策不該只對學生說“不許”,更要對學校自身說“必須”:必須明確數據治理邊界,必須評估工具供應商的安全與可追溯能力,必須為教師與學生提供“安全默認值”。
面向未來之“道”:
讓教師成為首批合規使用者
在我看來,與其把管控壓在學生身上,不如把責任壓回制度與教師端。為此,我嘗試著提出一套“教師先用—透明披露—對稱治理—過程評估”的實施框架。
其一,對稱原則:約束學生前,先約束教師。
凡對學生的限制,教師在同類工作中應遵守同等或更嚴格的規范。例如,如果課程禁止在文獻綜述中使用生成式總結,教師在講義與評語撰寫時也應披露自身是否、如何使用AI;相應的,學校應提供替代方案與訓練,如實例庫、核驗清單、引用模板,防止“只罰不教”。這一“對稱原則”能把“禁令感”轉變為“示范感”,提高學生對政策的信任度與遵從性。
其二,公開披露:把“是否用AI”寫進大綱與流程。
在課程大綱與評分矩陣中,教師須列明:哪些任務允許/禁止/需標注AI協助;如允許,需說明可接受的用途、證據與核驗方式。例如,要求附上關鍵提示、主要來源鏈接與人工修訂痕跡。在備課與評分環節,教師也應形成對本學院或教務部門的內部披露,為教研改進提供真實樣本。這種“全鏈條披露”正呼應了甘農的主張:讓持保留態度者看到制度的防線,而不是口號。
其三,作業重構:把“可解釋的過程”作為學習目標。
將“終稿真偽”之爭,轉為“過程可解釋”的訓練。提交生成過程包,包括關鍵提示、主要中間版本、外部資料、事實核驗記錄,讓學生為自己的每一次自動化決策“作證”;現場與口試與“帶回家作業”配套,考查個人理解與遷移;以本地語料、時效性案例、開放數據快照為題材,降低“一鍵代寫”的可移植性;將AI協助的引用與標注常態化,明確不當標注或虛構來源的后果。
這樣,AI不再是“捷徑”,而成為研究方法與寫作能力的一部分。
把“先讓教師規范使用AI”寫進制度
我以為,甘農的提醒很樸素:反對的聲音未必落伍,很多是對代價與價值的誠實計算。若順著這個思路想下去,我們還會發現,真正穩健的路徑不是“先禁學生”,而是先要求教師成為合規、透明、可解釋的AI使用示范者——當教師“會用、敢用、說得清楚怎么用”,學生自然就能在規則與示范中學會“如何正確使用”。
當然,先讓教師用,不是只把使用AI的權利給教師,而是把責任與能力還給教學;教師要以此重申學術訓練的本質——學會用、學會證、學會辨。這才是把AI從“禁令”變成“能力”的制度轉向。
(作者系中國人民大學全民閱讀教育研究院院長)
本文鏈接:應讓教師成為人工智能首批合規使用者http://www.sq15.cn/show-11-27599-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 治理保研“互鴿”,須重構選拔機制
下一篇: 博士生招生考核是否需要筆試?