近年來,以O(shè)penAI的ChatGPT為代表的大語言模型迅速發(fā)展,在各行各業(yè)衍生出了以大量典型的實(shí)用化應(yīng)用,相比早期的自然語言處理工具,大語言模型具有更強(qiáng)大的自然語言處理能力,不僅能夠識(shí)別語義信息,還能理解上下文關(guān)聯(lián),進(jìn)行多輪對(duì)話。這使其能夠以近似人類的方式進(jìn)行交互,理解并回答提問者的問題。同時(shí)大語言模型具備海量知識(shí)庫,其訓(xùn)練用的語料涵蓋了維基百科、文學(xué)作品、論壇對(duì)話等各類文本數(shù)據(jù),知識(shí)容量巨大,這為其提供了充分的知識(shí)來源,可以就多種領(lǐng)域的問題給出解答。目前在教育領(lǐng)域,大語言模型主要用于個(gè)性化的知識(shí)講解,教學(xué)文案生成,教學(xué)評(píng)估與反饋等,在降低教師負(fù)擔(dān)的同時(shí),其新穎的人機(jī)交互形式也可以提高學(xué)生的學(xué)習(xí)興趣和參與度。
大語言模型在思政教育方面的應(yīng)用及風(fēng)險(xiǎn)
在思想政治教育方面,同樣面臨其帶來的沖擊和變革。值得注意的是,大語言模型作為一種新興技術(shù),其應(yīng)用既存在機(jī)遇也潛藏風(fēng)險(xiǎn)。
從積極層面看,大語言模型技術(shù)具有語義分析和知識(shí)輸出能力,可以實(shí)現(xiàn)對(duì)學(xué)生需求的精準(zhǔn)把握和個(gè)性化回應(yīng),這為思想政治教育提供了實(shí)現(xiàn)“因材施教”的可能性。同時(shí),大語言模型可以通過輔助教案準(zhǔn)備、自動(dòng)生成測(cè)試題目、批改作業(yè)等方式幫助教師減輕重復(fù)勞動(dòng),提高教學(xué)效率。但是,我們也要清醒地看到,直接應(yīng)用大語言模型進(jìn)行思想政治教育存在一定風(fēng)險(xiǎn)。其訓(xùn)練所用的海量數(shù)據(jù)中可能存在錯(cuò)誤知識(shí)、負(fù)面內(nèi)容,這些元素都可能被編碼在模型參數(shù)中,其輸出可能會(huì)引導(dǎo)學(xué)生產(chǎn)生價(jià)值觀念的偏差。依賴大語言模型的思想政治教育也會(huì)削弱學(xué)生的獨(dú)立思考能力,模型生成的內(nèi)容往往更具形式化邏輯性,但缺乏真正的價(jià)值引領(lǐng)作用。此外,過度依賴大語言模型會(huì)侵蝕教師的主體地位,教師有可能陷入被動(dòng)回復(fù)的局面??傮w來說,大語言模型啟發(fā)了思想政治教育變革的可能,但應(yīng)用過程中需要警惕其技術(shù)局限性,不能直接等同于教師的引領(lǐng)作用,必須防范其負(fù)面影響,真正服務(wù)于學(xué)生全面發(fā)展的根本目的。
大語言模型的局限性根源分析
從技術(shù)上看,大語言模型在思政教育方面的局限性來自于以下幾個(gè)方面:
一是大語言模型的數(shù)據(jù)來源存在問題?,F(xiàn)有可供訓(xùn)練大語言模型的公開語料數(shù)據(jù),很大一部分來自互聯(lián)網(wǎng)等渠道,ChatGPT的訓(xùn)練數(shù)據(jù)絕大部分和GPT-3是相同的,而據(jù)統(tǒng)計(jì)GPT-3的訓(xùn)練數(shù)據(jù)中,英文占比超過92%,擁有絕對(duì)優(yōu)勢(shì),其他語言占比極低,中文占比不到1%,因此訓(xùn)練數(shù)據(jù)可能包含不符合主流意識(shí)形態(tài)和價(jià)值取向的內(nèi)容。此外,現(xiàn)有數(shù)據(jù)對(duì)主流意識(shí)形態(tài)闡釋不夠充分,理論聯(lián)系實(shí)際的案例較少,也會(huì)弱化模型對(duì)正確價(jià)值觀的判斷。
二是訓(xùn)練方法的局限性。大語言模型本質(zhì)上仍然是一個(gè)概率模型,在學(xué)習(xí)過程中并不會(huì)對(duì)數(shù)據(jù)進(jìn)行價(jià)值上的篩選,一旦訓(xùn)練過程中權(quán)重錯(cuò)誤知識(shí)的比例較大,就會(huì)影響模型的知識(shí)結(jié)構(gòu)和價(jià)值判斷。當(dāng)前大語言模型訓(xùn)練還無法達(dá)到真正理解知識(shí)內(nèi)涵的效果。
三是人為治理不足。大語言模型技術(shù)快速發(fā)展,相關(guān)的應(yīng)用治理措施與法規(guī)還不夠完善,模型開發(fā)企業(yè)和使用方的自律性有待加強(qiáng)。對(duì)一些可能引發(fā)問題的模型應(yīng)用,目前還缺少相關(guān)技術(shù)限制和行為規(guī)范,使用時(shí)還需進(jìn)一步完善相應(yīng)監(jiān)管。
從思政教育角度對(duì)大語言模型發(fā)展的建議
為了避免上述風(fēng)險(xiǎn),需要從多個(gè)方面入手,強(qiáng)化大語言模型應(yīng)用于思想政治教育的效果。
(1)在思政教育中,明確大語言模型是一個(gè)輔助工具,不能替代教師主體地位。教師需要保持清醒認(rèn)知,了解其風(fēng)險(xiǎn),合理應(yīng)用。完善應(yīng)用規(guī)范,防止過度依賴和不當(dāng)使用。
(2)從基礎(chǔ)科研、知識(shí)版權(quán)等方面支持領(lǐng)先的科技公司改進(jìn)大語言模型的算法技術(shù),提升其對(duì)世界知識(shí)理解的準(zhǔn)確性,開放模型運(yùn)行查詢接口,使教育工作者能夠查詢其內(nèi)部知識(shí)圖譜,了解知識(shí)來源。
(3)加速相關(guān)法規(guī)制定,構(gòu)建應(yīng)用治理框架,積極參與國(guó)際大語言模型治理的標(biāo)準(zhǔn)制定。如建立大語言模型應(yīng)用的法規(guī)條例,明確技術(shù)開發(fā)和應(yīng)用的底線原則。成立約束性規(guī)章制度,要求開發(fā)商和應(yīng)用方建立內(nèi)容審核等制度化流程,防止內(nèi)容偏差。加快人工智能倫理治理立法,為大語言模型應(yīng)用劃定紅線。
總結(jié)
隨著技術(shù)爆炸式的發(fā)展,大語言模型的廣泛應(yīng)用已經(jīng)是必然趨勢(shì)。出于對(duì)行業(yè)知識(shí)專業(yè)性的要求,已經(jīng)有很多公司在構(gòu)建面向不同行業(yè)的大語言模型或多模態(tài)模型,未來也有可能會(huì)出現(xiàn)根據(jù)實(shí)時(shí)數(shù)據(jù)即時(shí)更新的大語言模型,因此,在對(duì)大語言模型的治理上,要有超前的思考和行動(dòng)。在充分利用大語言模型為思想政治教育賦能的同時(shí),也要對(duì)其能力邊界及風(fēng)險(xiǎn)有足夠的認(rèn)識(shí),通過完善數(shù)據(jù)建設(shè)、設(shè)置輸出審核、劃清定位邊界、增強(qiáng)透明度、建立法規(guī)治理等舉措,可以在發(fā)揮其技術(shù)優(yōu)勢(shì)的基礎(chǔ)上,有效規(guī)避其負(fù)面影響,促進(jìn)思想政治教育的健康發(fā)展。這需要技術(shù)企業(yè)、政府管理部門、教育工作者等多方協(xié)同努力,共同推進(jìn)人工智能在教育領(lǐng)域的深度融合應(yīng)用。
作者:劉璇 北京化工大學(xué)文法學(xué)院